Entropisk vektor

Den entropiska vektorn eller entropiska funktionen är ett begrepp som uppstår inom informationsteorin . Den representerar de möjliga värdena för Shannons informationsentropi som delmängder av en uppsättning slumpvariabler kan ta . Att förstå vilka vektorer som är entropiska är ett sätt att representera alla möjliga ojämlikheter mellan entropier av olika delmängder. Till exempel, för två slumpvariabler , deras gemensamma entropi (entropin för den slumpmässiga variabeln som representerar paret ) är som mest summan av entropierna av och av :

Andra informationsteoretiska mått som villkorlig information , ömsesidig information eller total korrelation kan uttryckas i termer av gemensam entropi och är därmed relaterade till motsvarande ojämlikheter. Många ojämlikheter som tillfredsställs av entropiska vektorer kan härledas som linjära kombinationer av några grundläggande, kallade Shannon-typ ojämlikheter . Det har dock bevisats att redan för variabler är ingen ändlig uppsättning linjära olikheter tillräcklig för att karakterisera alla entropiska vektorer.

Definition

Shannons informationsentropi för en slumpvariabel betecknas { . För en tuppel av slumpvariabler anger vi den gemensamma entropin för en delmängd som eller mer kortfattat som , där . Här förstås som den slumpmässiga variabeln som representerar tupeln . För den tomma delmängden anger displaystyle

En vektor h i indexerad av delmängder av kallas en entropisk vektor av ordningen om det finns en tupel av slumpvariabler så att för varje delmängd .

Mängden av alla entropiska vektorer av ordningen betecknas med . Zhang och Yeung bevisade att den inte är stängd (för ), utan dess stängning , , är en konvex kon och kännetecknas därför av de (oändligt många) linjära olikheter den uppfyller. Att beskriva regionen är alltså ekvivalent med att karakterisera alla möjliga olikheter på ledentropier.

Exempel

Låt X , Y vara två oberoende slumpvariabler med diskret enhetlig fördelning över mängden . Sedan

(eftersom var och en är jämnt fördelad över en uppsättning med två element), och

(eftersom de två variablerna är oberoende, vilket betyder att paret är jämnt fördelat över ) Den motsvarande entropiska vektorn är alltså:

Å andra sidan är vektorn inte entropisk (det vill säga eftersom alla par av slumpvariabler (oberoende eller inte) ska uppfylla .

Karakteriserande entropiska vektorer: regionen Γ n *

Shannon-typ ojämlikheter och Γ n

För en tupel av slumpvariabler uppfyller deras entropier:

, för alla

I synnerhet , för alla .

Shannon -ojämlikheten säger att en entropisk vektor är submodulär :

för alla

Det motsvarar ojämlikheten som säger att den villkorade ömsesidiga informationen är icke-negativ:

(För en riktning, observera detta uttrycker den sista formen Shannons olikhet för delmängder och av tuppeln ; för den andra riktningen, ersätt , , ).

Många ojämlikheter kan härledas som linjära kombinationer av Shannon-ojämlikheter; de kallas Shannon-typ ojämlikheter eller grundläggande information ojämlikheter av Shannons informationsmått. Uppsättningen vektorer som uppfyller dem kallas ; den innehåller .

Mjukvara har utvecklats för att automatisera uppgiften att bevisa ojämlikheter av Shannon-typ. Givet en olikhet kan sådan programvara avgöra om den givna olikheten är en giltig olikhet av Shannon-typ (dvs om den innehåller konen .

Ojämlikheter av icke-Shannon-typ

Frågan om huruvida ojämlikheter av Shannon-typ är de enda, det vill säga om de helt karakteriserar regionen ställdes först av Te Su Han 1981 och närmare bestämt av Nicholas Pippenger 1986. Det är inte svårt att visa att detta är sant för två variabler, det vill säga . För tre variabler bevisade Zhang och Yeung att ; men det är fortfarande asymptotiskt sant, vilket betyder att stängningen är lika: . 1998 visade Zhang och Yeung att för alla , genom att bevisa att följande olikhet på fyra slumpvariabler (i termer av villkorlig ömsesidig information) är sann för vilken entropisk vektor som helst, men inte är Shannon-typ:

Ytterligare ojämlikheter och oändliga familjer av ojämlikheter har hittats. Dessa ojämlikheter ger yttre gränser för bättre än Shannon-typgränsen . 2007 bevisade Matus att ingen ändlig uppsättning linjära olikheter är tillräcklig (för att härleda alla som linjära kombinationer), för variabler. Med andra ord, området är inte polyedriskt. Huruvida de kan karakteriseras på något annat sätt (som gör det möjligt att effektivt avgöra om en vektor är entropisk eller inte) förblir ett öppet problem.

Analoga frågor för von Neumanns entropi i kvantinformationsteorin har övervägts.

Inre gränser

Vissa inre gränser för är också kända. Ett exempel är att innehåller alla vektorer i som dessutom uppfyller följande olikhet (och de som erhålls genom att permutera variabler), kända som Ingletons olikhet för entropi :

Entropi och grupper

Gruppkarakteriserbara vektorer och kvasilikformiga fördelningar

Betrakta en grupp och undergrupper av . Låt beteckna för ; detta är också en undergrupp av . Det är möjligt att konstruera en sannolikhetsfördelning för slumpvariabler så att

.

(Konstruktionen tar i huvudsak ett element av likformigt slumpmässigt och låter vara motsvarande coset ). Varje informationsteoretisk ojämlikhet innebär således en gruppteoretisk sådan. Till exempel, den grundläggande olikheten innebär att

Det visar sig att det omvända i huvudsak är sant. Mer exakt sägs en vektor vara gruppkarakteriserbar om den kan erhållas från en tupel av undergrupper enligt ovan. Uppsättningen av gruppkarakteriserbara vektorer betecknas . Som sagt ovan, . Å andra sidan, (och därmed ) ingår i den topologiska stängningen av den konvexa stängningen av . Med andra ord gäller en linjär olikhet för alla entropiska vektorer om och endast om den gäller för alla vektorer av formen någon undergrupper i en grupp .

Gruppkarakteriserbara vektorer som kommer från en abelisk grupp tillfredsställer Ingletons ojämlikhet.

Kolmogorov komplexitet

Kolmogorovs komplexitet uppfyller i huvudsak samma ojämlikheter som entropi. Beteckna nämligen Kolmogorov-komplexiteten för en finit sträng som (det vill säga längden på det kortaste programmet som matar ut ). Den gemensamma komplexiteten för två strängar , definierad som komplexiteten för en kodning av paret , kan betecknas . På liknande sätt kan den villkorliga komplexiteten betecknas (längden på det kortaste programmet som matar ut givet ). Andrey Kolmogorov märkte att dessa föreställningar beter sig på samma sätt som Shannon-entropi, till exempel:

År 2000, Hammer et al. bevisat att en olikhet verkligen gäller för entropiska vektorer om och endast om motsvarande olikhet i termer av Kolmogorov-komplexitet håller upp till logaritmiska termer för alla tuplar av strängar.

Se även

  1. ^ a b Zhang, Z.; Yeung, RW (1997). "En villkorlig ojämlikhet av informationsmängder av icke-Shannon-typ". IEEE Trans. Inf. Teori . 43 (6): 1982–1986. doi : 10.1109/18.641561 .
  2. ^ a b c d Zhang, Z.; Yeung, RW (1998). "Om karaktärisering av entropifunktion via informationsskillnader". IEEE Trans. Inf. Teori . 44 (4): 1440–1452. doi : 10.1109/18.681320 .
  3. ^ Yeung, RW; Yan, YO (1996). "ITIP - Information Theoretic Inequality Prover" . {{ citera journal }} : Citera journal kräver |journal= ( hjälp )
  4. ^ Pulikoonattu, R.; E. Perron, E.; S.Diggavi, S. (2007). "Xitip - Information Theoretic Inequalities Prover" . {{ citera journal }} : Citera journal kräver |journal= ( hjälp )
  5. ^ Kaced, Tarik (2013). Likvärdighet mellan två bevistekniker för ojämlikheter av icke-Shannon-typ . 2013 IEEE International Symposium on Information Theory. arXiv : 1302.2994 .
  6. ^ Yeung. En första kurs i informationsteori , sats 14.7
  7. ^ Dougherty, R.; Freiling, C .; Zeger, K. (2006). Sex nya icke-Shannon-informationsjämlikheter . 2006 IEEE International Symposium on Information Theory.
  8. ^   Matus, F. (1999). "Villkorliga oberoende mellan fyra slumpvariabler III: Slutlig slutsats". Kombinatorik, sannolikhet och beräkning . 8 (3): 269–276. doi : 10.1017/s0963548399003740 . S2CID 121634597 .
  9. ^ Makarychev, K.; et al. (2002). "En ny klass av icke-Shannon-typ ojämlikheter för entropier" . Kommunikation inom information och system . 2 (2): 147–166. doi : 10.4310/cis.2002.v2.n2.a3 .
  10. ^ Zhang, Z. (2003). "På en ny icke-Shannon-typ informationsjämlikhet" . Kommunikation inom information och system . 3 (1): 47–60. doi : 10.4310/cis.2003.v3.n1.a4 .
  11. ^ Matus, F. (2007). Oändligt många informationsskillnader . 2007 IEEE International Symposium on Information Theory.
  12. ^   Linden; Winter (2005). "En ny ojämlikhet för von Neumann-entropin". Commun. Matematik. Phys . 259 (1): 129–138. arXiv : quant-ph/0406162 . Bibcode : 2005CMaPh.259..129L . doi : 10.1007/s00220-005-1361-2 . S2CID 13279358 .
  13. ^ Yeung. En första kurs i informationsteori , sid. 386
  14. ^ Yeung. En första kurs i informationsteori , sats 16.16
  15. ^ Yeung. En första kurs i informationsteori , sats 16.22
  16. ^ Hammare; Romasjtjenko; Shen; Vereshchagin (2000). "Ojämlikheter för Shannon Entropy och Kolmogorov Complexity" . Tidskrift för data- och systemvetenskap . 60 (2): 442–464. doi : 10.1006/jcss.1999.1677 .
  •   Thomas M. Cover, Joy A. Thomas. Elements of information theory New York: Wiley, 1991. ISBN 0-471-06259-6
  •   Raymond Yeung. A First Course in Information Theory , Kapitel 12, Information Ojämlikheter , 2002, Skriv ut ISBN 0-306-46791-7