Villkorlig ömsesidig information

Venn diagram av informationsteoretiska mått för tre variabler , och , representerade av de nedre vänstra, nedre högra respektive övre cirklarna. De villkorliga ömsesidiga informationerna , och representeras av de gula, cyan- respektive magenta-områdena.

Inom sannolikhetsteorin , särskilt informationsteorin , är den villkorliga ömsesidiga informationen , i sin mest grundläggande form, det förväntade värdet av den ömsesidiga informationen för två slumpvariabler givet värdet av en tredje.

Definition

För slumpvariabler , och med stöduppsättningar , och definierar vi den villkorliga ömsesidiga informationen som

Detta kan skrivas i termer av förväntningsoperatorn: .

Således är den förväntade (med avseende på ) Kullback–Leibler-divergensen från den villkorliga ledfördelningen till produkten av de villkorliga marginalerna och . Jämför med definitionen av ömsesidig information .

När det gäller PMF för diskreta distributioner

För diskreta slumpvariabler , och med stöduppsättningar , och , den villkorliga ömsesidiga informationen är som följer

där marginella, gemensamma och/eller villkorliga sannolikhetsmassfunktioner betecknas med med lämplig nedsänkning. Detta kan förenklas som

När det gäller PDF-filer för kontinuerliga distributioner

För (absolut) kontinuerliga slumpvariabler , och med stöduppsättningar , och , den villkorliga ömsesidiga informationen är som följer

där marginella, gemensamma och/eller villkorliga sannolikhetstäthetsfunktioner betecknas med med lämplig sänkning. Detta kan förenklas som

Vissa identiteter

Alternativt kan vi skriva i termer av gemensamma och villkorade entropier som

Detta kan skrivas om för att visa dess förhållande till ömsesidig information

vanligtvis omarrangeras som kedjeregeln för ömsesidig information

eller

En annan likvärdig form av ovanstående är

En annan likvärdig form av den villkorade ömsesidiga informationen är

Liksom ömsesidig information kan villkorad ömsesidig information uttryckas som en Kullback–Leibler-divergens :

Eller som ett förväntat värde av enklare Kullback–Leibler-divergenser:

,
.

Mer allmän definition

En mer allmän definition av villkorlig ömsesidig information, tillämplig på slumpvariabler med kontinuerliga eller andra godtyckliga fördelningar, kommer att bero på begreppet regelbunden villkorlig sannolikhet . (Se även.)

Låt vara ett sannolikhetsutrymme , och låt de slumpmässiga variablerna , , och definieras var och en som en Borel-mätbar funktion från till något tillståndsutrymme försett med en topologisk struktur.

Betrakta Borel-måttet (på σ-algebra som genereras av de öppna uppsättningarna) i tillståndsutrymmet för varje slumpvariabel som definieras genom att tilldela varje Borel-mängd -måttet för dess förbild i . Detta kallas pushforward-måttet en slumpvariabel definieras som det topologiska stödet för detta mått, dvs

Nu kan vi formellt definiera det villkorade sannolikhetsmåttet givet värdet av en (eller, via produkttopologin , fler) av de slumpmässiga variablerna. Låt vara en mätbar delmängd av (dvs ) och låt Använd sedan desintegrationssatsen :

där gränsen tas över de öppna kvarteren av , eftersom de tillåts bli godtyckligt mindre med avseende på setinkludering .

Slutligen kan vi definiera den villkorliga ömsesidiga informationen via Lebesgue-integration :

där integranden är logaritmen för en Radon-Nikodym-derivata som involverar några av de villkorade sannolikhetsmåtten vi just har definierat.

Anmärkning om notation

I ett uttryck som och behöver inte nödvändigtvis begränsas till att representera individuella slumpvariabler, utan kan också representera den gemensamma fördelningen av en samling slumpvariabler definierade på samma sannolikhetsutrymme . Som vanligt inom sannolikhetsteorin kan vi använda kommatecken för att beteckna en sådan gemensam fördelning, t.ex. Därför användes semikolon (eller ibland ett kolon eller till och med en kil ) för att separera de huvudsakliga argumenten för den ömsesidiga informationssymbolen. (Ingen sådan åtskillnad är nödvändig i symbolen för gemensam entropi , eftersom den gemensamma entropin för valfritt antal slumpvariabler är densamma som entropin för deras gemensamma fördelning.)

Egenskaper

Icke-negativitet

Det är alltid sant att

,

för diskreta, gemensamt fördelade slumpvariabler , och . Detta resultat har använts som en grundläggande byggsten för att bevisa andra ojämlikheter i informationsteori, i synnerhet de som kallas Shannon-typ ojämlikheter. Villkorlig ömsesidig information är också icke-negativ för kontinuerliga slumpvariabler under vissa regularitetsförhållanden.

Interaktionsinformation

Konditionering av en tredje slumpvariabel kan antingen öka eller minska den ömsesidiga informationen: det vill säga skillnaden , kallad interaktionsinformation , kan vara positiv, negativ eller noll. Detta är fallet även när slumpvariabler är parvis oberoende. Så är fallet när:

i vilket fall , och är parvis oberoende och i synnerhet , men

Kedjeregel för ömsesidig information

Kedjeregeln (som härledd ovan) tillhandahåller två sätt att dekomponera :

Ojämlikheten i databehandlingen är nära relaterad till villkorad ömsesidig information och kan bevisas med hjälp av kedjeregeln.

Interaktionsinformation

Den villkorade ömsesidiga informationen används för att induktivt definiera interaktionsinformationen, en generalisering av ömsesidig information, enligt följande:

var

Eftersom den villkorliga ömsesidiga informationen kan vara större än eller mindre än dess ovillkorliga motsvarighet, kan interaktionsinformationen vara positiv, negativ eller noll, vilket gör den svår att tolka.

  1. ^ Wyner, AD (1978). "En definition av villkorlig ömsesidig information för godtyckliga ensembler" . Information och kontroll . 38 (1): 51–59. doi : 10.1016/s0019-9958(78)90026-8 .
  2. ^ Dobrushin, RL (1959). "Allmän formulering av Shannons huvudsats i informationsteori". Uspekhi Mat. Nauk . 14 : 3–104.
  3. ^   Omslag, Thomas ; Thomas, Joy A. (2006). Elements of Information Theory (2:a uppl.). New York: Wiley-Interscience . ISBN 0-471-24195-4 .
  4. ^ Regelbunden villkorlig sannolikhet PlanetMath
  5. ^ D. Leao, Jr. et al. Regelbunden villkorlig sannolikhet, sönderfall av sannolikhet och radonutrymmen. Proyecciones. Vol. 23, nr 1, s. 15–29, maj 2004, Universidad Católica del Norte, Antofagasta, Chile PDF
  6. ^ Polyanskiy, Yury; Wu, Yihong (2017). Föreläsningsanteckningar om informationsteori (PDF) . sid. 30.