Koncentration ojämlikhet

I sannolikhetsteorin ger koncentrationsskillnader gränser för hur en slumpvariabel avviker från något värde (vanligtvis dess förväntade värde ). Lagen om stora antal av klassisk sannolikhetsteori säger att summor av oberoende slumpvariabler är, under mycket milda förhållanden, nära deras förväntningar med stor sannolikhet. Sådana summor är de mest grundläggande exemplen på slumpvariabler koncentrerade kring deras medelvärde . Nyligen genomförda resultat visar att sådant beteende delas av andra funktioner hos oberoende slumpvariabler.

Koncentrationsskillnader kan sorteras efter hur mycket information om den slumpmässiga variabeln som behövs för att kunna använda dem.

Markovs ojämlikhet

Låt vara en slumpvariabel som är icke-negativ ( nästan säkert ). Sedan, för varje konstant ,

Notera följande förlängning av Markovs ojämlikhet: om är en strikt ökande och icke-negativ funktion, då

Chebyshevs ojämlikhet

Chebyshevs olikhet kräver följande information om en slumpvariabel :

  • Det förväntade värdet är ändligt.
  • Variansen X är ändlig.

Sedan, för varje konstant ,

eller motsvarande,

där är standardavvikelsen för .

Chebyshevs ojämlikhet kan ses som ett specialfall av den generaliserade Markovs olikhet tillämpad på stokastisk variabel med .


Vysochanskij–Petunin ojämlikhet

Låt X vara en slumpvariabel med unimodal fördelning, medelvärde μ och finit, icke-noll varians σ 2 . Sedan, för alla

(För ett relativt elementärt bevis se t.ex. ).

Ensidig ojämlikhet Vysochanskij–Petunin

För en unimodal slumpvariabel och gäller den ensidiga Vysochanskij-Petunin-olikheten enligt följande:


Paley-Zygmund ojämlikhet


Cantellis ojämlikhet


Gauss ojämlikhet


Chernoffs gränser

Den generiska Chernoff-gränsen kräver endast den momentgenererande funktionen av , definierad som: , förutsatt att den finns. Baserat på Markovs ojämlikhet, för varje :

och för varje :

Det finns olika Chernoff-gränser för olika distributioner och olika värden på parametern . Se för en sammanställning av fler koncentrationsskillnader.

Gränser för summor av oberoende avgränsade variabler

Låt vara oberoende slumpvariabler så att för alla i :

nästan säkert .

Låt vara deras summa, dess förväntade värde och dess varians:

Det är ofta intressant att binda skillnaden mellan summan och dess förväntade värde. Flera ojämlikheter kan användas.

1. Hoeffdings ojämlikhet säger att:

2. Slumpvariabeln är ett specialfall av en martingal , och . Därför kan den allmänna formen av Azumas ojämlikhet också användas och den ger en liknande gräns:

Detta är en generalisering av Hoeffdings eftersom den kan hantera andra typer av martingaler, såväl som supermartingales och submartingales . Observera att om den enklare formen av Azumas olikhet används, är exponenten i gränsen sämre med en faktor 4.

3. Summafunktionen, är ett specialfall av en funktion av n variabler. Denna funktion ändras på ett begränsat sätt: om variabeln i ändras, ändras värdet på f med högst . Därför McDiarmids ojämlikhet också användas och det ger en liknande gräns:

Detta är en annan generalisering av Hoeffdings eftersom den kan hantera andra funktioner förutom summafunktionen, så länge de ändras på ett begränsat sätt.

4. Bennetts ojämlikhet erbjuder en viss förbättring jämfört med Hoeffdings när varianserna för summanterna är små jämfört med deras nästan säkra gränser C . Det står att:

där

5. Den första av Bernsteins ojämlikheter säger att:

Detta är en generalisering av Hoeffdings eftersom den kan hantera slumpvariabler med inte bara nästan säker gräns utan både nästan säker bunden och variansbunden.

6. Chernoff-gränser har en särskilt enkel form när det gäller summan av oberoende variabler, eftersom .

Anta till exempel att variablerna uppfyller , för . Då har vi lägre svansojämlikhet:

Om uppfyller , vi har ojämlikhet i övre svansen:

Om är iid, och är variansen av , en typisk version av Chernoff-olikhet är :

7. Liknande gränser finns i: Rademacher distribution#Bounds on sums

Efron–Stein ojämlikhet

Efron–Stein-olikheten (eller inflytandeolikhet, eller MG bunden till varians) begränsar variansen för en allmän funktion.

Antag att , är oberoende med och har samma fördelning för alla .

Låt Sedan

Bretagnolle–Huber–Carol ojämlikhet

Bretagnolle–Huber–Carol Ojämlikhet begränsar skillnaden mellan en vektor av multinomiellt fördelade slumpvariabler och en vektor med förväntade värden. Ett enkelt bevis visas i (bilaga avsnitt).

Om en slumpmässig vektor multinomialt fördelad med parametrar och uppfyller sedan

Denna olikhet används för att begränsa det totala variationsavståndet .

Mason och van Zwet ojämlikhet

Mason och van Zwet olikheten för multinomial slumpmässiga vektorer gäller en liten modifiering av den klassiska chi-kvadratstatistiken.

Låt den slumpmässiga vektorn vara multinomiellt fördelad med parametrarna och så att för Sedan för varje och finns det konstanter så att för alla och som uppfyller och vi har

Dvoretzky–Kiefer–Wolfowitz ojämlikhet

Ojämlikheten mellan Dvoretzky–Kiefer–Wolfowitz begränsar skillnaden mellan den verkliga och den empiriska kumulativa fördelningsfunktionen .

Givet ett naturligt tal , låt vara verkligt värderade oberoende och identiskt fördelade stokastiska variabler med kumulativ fördelningsfunktion F (·). Låt beteckna den associerade empiriska distributionsfunktionen definierad av

är sannolikheten att en enda slumpvariabel är mindre än och är det genomsnittliga antalet slumpvariabler som är mindre än .

Sedan

Ojämlikhet mot koncentration

Anti-koncentrationsojämlikheter , å andra sidan, ger en övre gräns för hur mycket en slumpvariabel kan koncentrera sig kring en kvantitet.

Till exempel visar Rao och Yehudayoff att det finns något så att för de flesta riktningar av hyperkuben , följande är sant:

där ritas likformigt från en delmängd av tillräckligt stor storlek.

Sådana ojämlikheter är av betydelse inom flera områden, inklusive kommunikationskomplexitet ( t.ex. i bevis på gapet Hamming-problemet ) och grafteori .

En intressant anti-koncentrationsojämlikhet för viktade summor av oberoende Rademacher -slumpvariabler kan erhållas med Paley-Zygmund- och Khintchine -olikheterna.

externa länkar