Gibbs ojämlikhet
Inom informationsteorin är Gibbs ojämlikhet ett uttalande om informationsentropin för en diskret sannolikhetsfördelning . Flera andra gränser för entropin av sannolikhetsfördelningar härleds från Gibbs ojämlikhet, inklusive Fanos ojämlikhet . Den presenterades först av J. Willard Gibbs på 1800-talet.
Gibbs ojämlikhet
Anta att
är en diskret sannolikhetsfördelning . Sedan för någon annan sannolikhetsfördelning
Följande olikhet mellan positiva storheter (eftersom p i och q i är mellan noll och ett) gäller:
med jämlikhet om och bara om
för allt jag . Med ord, informationsentropin för en distribution P är mindre än eller lika med dess korsentropi med någon annan distribution Q.
Skillnaden mellan de två kvantiteterna är Kullback–Leibler-divergensen eller relativ entropi, så olikheten kan också skrivas:
Observera att användningen av bas-2- logaritmer är valfri och gör att man kan referera till kvantiteten på varje sida av ojämlikheten som en "genomsnittlig överraskning " mätt i bitar .
Bevis
För enkelhetens skull bevisar vi påståendet med den naturliga logaritmen ( ln ). Därför att
den speciella logaritmbasen b > 1 som vi väljer skalar endast förhållandet med faktorn 1 / ln b .
Låt beteckna mängden av alla för vilka p i inte är noll. Sedan, eftersom för alla x > 0 , med likhet om och endast om x=1 , har vi:
Den sista olikheten är en konsekvens av att del pi och q i är av en en sannolikhetsfördelning. Specifikt är summan av alla värden som inte är noll pi 1. Vissa qi . som inte är noll kan dock ha exkluderats eftersom valet av index är betingat av att inte är noll Därför kan summan av q i vara mindre än 1.
har vi över indexuppsättningen
- ,
eller motsvarande
- .
Båda summorna kan utökas till alla , dvs inklusive , genom att komma ihåg att uttrycket tenderar till 0 som tenderar till 0, och tenderar att eftersom tenderar till 0. Vi kommer fram till
För att jämlikheten ska bestå kräver vi
- för alla så att likheten håller ,
- och vilket betyder om , det vill säga om .
Detta kan hända om och endast om för .
Alternativa bevis
Resultatet kan alternativt bevisas med Jensens olikhet , logsummans olikhet , eller det faktum att Kullback-Leibler-divergensen är en form av Bregman-divergens . Nedan ger vi ett bevis baserat på Jensens ojämlikhet:
Eftersom log är en konkav funktion har vi följande:
Där den första ojämlikheten beror på Jensens ojämlikhet, och den sista jämlikheten beror på samma skäl som anges i ovanstående bevis.
Dessutom, eftersom är strikt konkav, får vi genom jämlikhetsvillkoret för Jensens ojämlikhet jämlikhet när
och
Antag att detta förhållande är , då har vi det
Där vi använder det faktum att är sannolikhetsfördelningar. Därför uppstår likheten när .
Naturlig följd
Entropin för P begränsas av
Beviset är trivialt – sätt helt enkelt för alla i .