Gibbs ojämlikhet

Josiah Willard Gibbs

Inom informationsteorin är Gibbs ojämlikhet ett uttalande om informationsentropin för en diskret sannolikhetsfördelning . Flera andra gränser för entropin av sannolikhetsfördelningar härleds från Gibbs ojämlikhet, inklusive Fanos ojämlikhet . Den presenterades först av J. Willard Gibbs på 1800-talet.

Gibbs ojämlikhet

Anta att

är en diskret sannolikhetsfördelning . Sedan för någon annan sannolikhetsfördelning

Följande olikhet mellan positiva storheter (eftersom p i och q i är mellan noll och ett) gäller:

med jämlikhet om och bara om

för allt jag . Med ord, informationsentropin för en distribution P är mindre än eller lika med dess korsentropi med någon annan distribution Q.

Skillnaden mellan de två kvantiteterna är Kullback–Leibler-divergensen eller relativ entropi, så olikheten kan också skrivas:

Observera att användningen av bas-2- logaritmer är valfri och gör att man kan referera till kvantiteten på varje sida av ojämlikheten som en "genomsnittlig överraskning " mätt i bitar .

Bevis

För enkelhetens skull bevisar vi påståendet med den naturliga logaritmen ( ln ). Därför att

den speciella logaritmbasen b > 1 som vi väljer skalar endast förhållandet med faktorn 1 / ln b .

Låt beteckna mängden av alla för vilka p i inte är noll. Sedan, eftersom för alla x > 0 , med likhet om och endast om x=1 , har vi:

Den sista olikheten är en konsekvens av att del pi och q i är av en en sannolikhetsfördelning. Specifikt är summan av alla värden som inte är noll pi 1. Vissa qi . som inte är noll kan dock ha exkluderats eftersom valet av index är betingat av att inte är noll Därför kan summan av q i vara mindre än 1.

har vi över indexuppsättningen

,

eller motsvarande

.

Båda summorna kan utökas till alla , dvs inklusive , genom att komma ihåg att uttrycket tenderar till 0 som tenderar till 0, och tenderar att eftersom tenderar till 0. Vi kommer fram till

För att jämlikheten ska bestå kräver vi

  1. för alla så att likheten håller ,
  2. och vilket betyder om , det vill säga om .

Detta kan hända om och endast om för .

Alternativa bevis

Resultatet kan alternativt bevisas med Jensens olikhet , logsummans olikhet , eller det faktum att Kullback-Leibler-divergensen är en form av Bregman-divergens . Nedan ger vi ett bevis baserat på Jensens ojämlikhet:

Eftersom log är en konkav funktion har vi följande:

Där den första ojämlikheten beror på Jensens ojämlikhet, och den sista jämlikheten beror på samma skäl som anges i ovanstående bevis.

Dessutom, eftersom är strikt konkav, får vi genom jämlikhetsvillkoret för Jensens ojämlikhet jämlikhet när

och

Antag att detta förhållande är , då har vi det

Där vi använder det faktum att är sannolikhetsfördelningar. Därför uppstår likheten när .

Naturlig följd

Entropin för P begränsas av

Beviset är trivialt – sätt helt enkelt för alla i .

Se även