Ojämlikheter i informationsteori

Ojämlikheter är mycket viktiga i studiet av informationsteori . Det finns ett antal olika sammanhang där dessa ojämlikheter uppträder.

Entropiska ojämlikheter

Betrakta en tuppel av ändligt (eller högst räknat) stödd slumpmässigt variabler på samma sannolikhetsutrymme . Det finns 2 n delmängder, för vilka ( gemensamma ) entropier kan beräknas. Till exempel, när n = 2, kan vi betrakta entropierna och . De uppfyller följande ojämlikheter (som tillsammans karakteriserar intervallet för de marginala och gemensamma entropierna för två slumpvariabler):

I själva verket kan dessa alla uttryckas som speciella fall av en enda ojämlikhet som involverar den villkorade ömsesidiga informationen , nämligen

där , och var och en betecknar den gemensamma fördelningen av någon godtycklig (möjligen tom) delmängd av vår samling av slumpvariabler. Ojämlikheter som kan härledas som linjära kombinationer av detta är kända som ojämlikheter av Shannon-typ .

För större finns ytterligare begränsningar för möjliga värden på entropi. För att göra detta exakt, en vektor i indexerad med delmängder av sägs vara entropisk om det finns en gemensam, diskret fördelning av n slumpvariabler såsom att är deras gemensamma entropi , för varje delmängd . Uppsättningen av entropiska vektorer betecknas efter beteckningen Yeung. Den är inte stängd eller konvex för , men dess topologiska stängning är känd för att vara konvex och därför kan den kännetecknas av de (oändligt många) linjära ojämlikheterna som alla entropiska vektorer uppfyller, kallade entropiska ojämlikheter .

Mängden av alla vektorer som uppfyller Shannon-typ ojämlikheter (men inte nödvändigtvis andra entropiska olikheter) innehåller . Denna inneslutning är strikt för och ytterligare ojämlikheter är kända som icke-Shannon- olikheter. Zhang och Yeung rapporterade om den första ojämlikheten av icke-Shannon-typ. Matus bevisade att ingen ändlig uppsättning ojämlikheter kan karakterisera (genom linjära kombinationer) alla entropiska ojämlikheter. Med andra ord, området är inte en polytop .

Nedre gränser för divergensen Kullback–Leibler

Många viktiga ojämlikheter i informationsteorin är faktiskt lägre gränser för Kullback–Leibler-divergensen . Även ojämlikheterna av Shannon-typ kan betraktas som en del av denna kategori, eftersom interaktionsinformationen kan uttryckas som Kullback–Leibler-divergensen av den gemensamma fördelningen med avseende på produkten av marginalerna, och därför kan dessa ojämlikheter ses som en speciell fallet med Gibbs ojämlikhet .

Å andra sidan verkar det vara mycket svårare att härleda användbara övre gränser för Kullback–Leibler-divergensen. Detta beror på att Kullback–Leibler-divergensen D KL ( P || Q ) beror mycket känsligt på händelser som är mycket sällsynta i referensfördelningen Q . D KL ( P || Q ) ökar utan gräns när en händelse med ändlig icke-noll sannolikhet i fördelningen P blir ytterst sällsynt i referensfördelningen Q , och faktiskt D KL ( P || Q ) är inte ens definierad om en händelse av icke-noll sannolikhet i P har noll sannolikhet i Q. (Därav kravet att P ska vara absolut kontinuerlig med avseende på Q. )

Gibbs ojämlikhet

Denna grundläggande ojämlikhet säger att skillnaden mellan Kullback och Leibler är icke-negativ.

Kullbacks ojämlikhet

En annan ojämlikhet angående skillnaden mellan Kullback och Leibler är känd som Kullbacks ojämlikhet . Om P och Q är sannolikhetsfördelningar på den reella linjen med P absolut kontinuerlig med avseende på Q, och vars första moment existerar, då

där är den stora avvikelsehastighetsfunktionen , dvs det konvexa konjugatet av den kumulantgenererande funktionen av Q , och är det första ögonblicket av P .

Cramér –Rao-gränsen är en följd av detta resultat.

Pinskers ojämlikhet

Pinskers ojämlikhet relaterar Kullback–Leibler-divergens och totalt variationsavstånd . Det står att om P , Q är två sannolikhetsfördelningar , då

var

är Kullback–Leibler divergensen i nats och

är det totala variationsavståndet.

Andra ojämlikheter

Hirschman osäkerhet

1957 visade Hirschman att för en (rimligt väluppfostrad) funktion så att dess Fouriertransform summan av differentialentropierna för och är icke-negativ, dvs

Hirschman förmodade, och det bevisades senare, att en skarpare gräns för som uppnås i fallet med en gaussisk fördelning , skulle kunna ersätta höger- sidan av denna ojämlikhet. Detta är särskilt betydelsefullt eftersom det antyder, och är starkare än, Weyls formulering av Heisenbergs osäkerhetsprincip .

Taos ojämlikhet

Givet diskreta slumpvariabler , och , så att endast tar värden i intervallet [−1, 1] och bestäms av (så att ), vi har

relatera den villkorade förväntningen till den villkorade ömsesidiga informationen . Detta är en enkel konsekvens av Pinskers ojämlikhet . (Obs: korrektionsfaktorn log 2 inuti radikalen uppstår eftersom vi mäter den villkorliga ömsesidiga informationen i bitar snarare än nats .)

Maskinbaserad provkontroll av informationsteoretiska ojämlikheter

Flera maskinbaserade provkontrollalgoritmer är nu tillgängliga. Provkontrollalgoritmer verifierar vanligtvis ojämlikheterna som antingen sanna eller falska. Mer avancerade provkontrollalgoritmer kan producera bevis eller motexempel. ITIP är en Matlab-baserad provkontroll för alla Shannon-typ Ojämlikheter. Xitip är en öppen källkod, snabbare version av samma algoritm implementerad i C med ett grafiskt gränssnitt. Xitip har också en inbyggd språkanalysfunktion som stöder ett bredare utbud av slumpvariablebeskrivningar som input. AITIP och oXitip är molnbaserade implementeringar för att validera ojämlikheter av Shannon-typ. oXitip använder GLPK optimizer och har en C++ backend baserad på Xitip med ett webbaserat användargränssnitt. AITIP använder Gurobi-lösaren för optimering och en blandning av python och C++ i backend-implementeringen. Det kan också ge en kanonisk nedbrytning av ojämlikheterna när det gäller grundläggande informationsåtgärder.

Se även

  1. ^ Yeung, RW (1997). "Ett ramverk för linjär informationsjämlikhet". IEEE-transaktioner på informationsteori . 43 (6): 1924–1934. doi : 10.1109/18.641556 . )
  2. ^ Zhang, Z.; Yeung, RW (1998). "Om karakterisering av entropifunktion via informationsjämlikheter". IEEE-transaktioner på informationsteori . 44 (4): 1440–1452. doi : 10.1109/18.681320 .
  3. ^ Matus, F. (2007). Oändligt många informationsskillnader . 2007 IEEE International Symposium on Information Theory.
  4. ^    Fuchs, Aimé; Letta, Giorgio (1970). L'inégalité de Kullback. Ansökan à la théorie de l'estimation . Séminaire de Probabilités . Föreläsningsanteckningar i matematik. Vol. 4. Strasbourg. s. 108–131. doi : 10.1007/bfb0059338 . ISBN 978-3-540-04913-5 . MR 0267669 .
  5. ^   Hirschman, II (1957). "En anteckning om entropi". American Journal of Mathematics . 79 (1): 152–156. doi : 10.2307/2372390 . JSTOR 2372390 .
  6. ^   Beckner, W. (1975). "Ojämlikheter i Fourieranalys". Annals of Mathematics . 102 (6): 159–182. doi : 10.2307/1970980 . JSTOR 1970980 .
  7. ^ Tao, T. (2006). "Szemerédis regelbundenhet lemma återbesökt". Bidrag. Diskret matematik . 1 :8–28. arXiv : math/0504472 . Bibcode : 2005math......4472T .
  8. ^ Ahlswede, Rudolf (2007). "Den slutliga formen av Taos ojämlikhet relaterad till villkorade förväntningar och villkorad ömsesidig information" . Framsteg i kommunikationsmatematik . 1 (2): 239–242. doi : 10.3934/amc.2007.1.239 .
  9. ^ a b Ho, SW; Ling, L.; Tan, CW; Yeung, RW (2020). "Bevisa och motbevisa informationsskillnader: teori och skalbara algoritmer". IEEE-transaktioner på informationsteori . 66 (9): 5525–5536. doi : 10.1109/TIT.2020.2982642 .

externa länkar