Matematisk ojämlikhet som förklarar koncentrationen av slumpvariabler
I sannolikhetsteorin ger koncentrationsskillnader gränser för hur en slumpvariabel avviker från något värde (vanligtvis dess förväntade värde ). Lagen om stora antal av klassisk sannolikhetsteori säger att summor av oberoende slumpvariabler är, under mycket milda förhållanden, nära deras förväntningar med stor sannolikhet. Sådana summor är de mest grundläggande exemplen på slumpvariabler koncentrerade kring deras medelvärde . Nyligen genomförda resultat visar att sådant beteende delas av andra funktioner hos oberoende slumpvariabler.
Koncentrationsskillnader kan sorteras efter hur mycket information om den slumpmässiga variabeln som behövs för att kunna använda dem.
Den generiska Chernoff-gränsen kräver endast den momentgenererande funktionen av , definierad som: , förutsatt att den finns. Baserat på Markovs ojämlikhet, för varje :
och för varje :
Det finns olika Chernoff-gränser för olika distributioner och olika värden på parametern . Se för en sammanställning av fler koncentrationsskillnader.
Gränser för summor av oberoende avgränsade variabler
2. Slumpvariabeln är ett specialfall av en martingal , och . Därför kan den allmänna formen av Azumas ojämlikhet också användas och den ger en liknande gräns:
Detta är en generalisering av Hoeffdings eftersom den kan hantera andra typer av martingaler, såväl som supermartingales och submartingales . Observera att om den enklare formen av Azumas olikhet används, är exponenten i gränsen sämre med en faktor 4.
3. Summafunktionen, är ett specialfall av en funktion av n variabler. Denna funktion ändras på ett begränsat sätt: om variabeln i ändras, ändras värdet på f med högst . Därför McDiarmids ojämlikhet också användas och det ger en liknande gräns:
Detta är en annan generalisering av Hoeffdings eftersom den kan hantera andra funktioner förutom summafunktionen, så länge de ändras på ett begränsat sätt.
4. Bennetts ojämlikhet erbjuder en viss förbättring jämfört med Hoeffdings när varianserna för summanterna är små jämfört med deras nästan säkra gränser C . Det står att:
Detta är en generalisering av Hoeffdings eftersom den kan hantera slumpvariabler med inte bara nästan säker gräns utan både nästan säker bunden och variansbunden.
6. Chernoff-gränser har en särskilt enkel form när det gäller summan av oberoende variabler, eftersom .
Anta till exempel att variablerna uppfyller , för . Då har vi lägre svansojämlikhet:
Om uppfyller , vi har ojämlikhet i övre svansen:
Om är iid, och är variansen av , en typisk version av Chernoff-olikhet är :
Efron–Stein-olikheten (eller inflytandeolikhet, eller MG bunden till varians) begränsar variansen för en allmän funktion.
Antag att , är oberoende med och har samma fördelning för alla .
Låt Sedan
Bretagnolle–Huber–Carol ojämlikhet
Bretagnolle–Huber–Carol Ojämlikhet begränsar skillnaden mellan en vektor av multinomiellt fördelade slumpvariabler och en vektor med förväntade värden. Ett enkelt bevis visas i (bilaga avsnitt).
Om en slumpmässig vektor multinomialt fördelad med parametrar och uppfyller sedan
Mason och van Zwet olikheten för multinomial slumpmässiga vektorer gäller en liten modifiering av den klassiska chi-kvadratstatistiken.
Låt den slumpmässiga vektorn vara multinomiellt fördelad med parametrarna och så att för Sedan för varje och finns det konstanter så att för alla och som uppfyller och vi har
En intressant anti-koncentrationsojämlikhet för viktade summor av oberoende Rademacher -slumpvariabler kan erhållas med Paley-Zygmund- och Khintchine -olikheterna.