Nedre gräns för varians av en estimator
I uppskattningsteori och statistik uttrycker Cramér –Rao-gränsen ( CRB ) en nedre gräns på variansen av opartiska skattare av en deterministisk (fast, men okänd) parameter, variansen för en sådan skattare är minst lika hög som den omvända av Fisher -informationen . På motsvarande sätt uttrycker den en övre gräns för precisionen (variansens invers) för opartiska skattare: precisionen för en sådan skattare är högst Fisher-informationen. Resultatet är uppkallat efter Harald Cramér och CR Rao , men har oberoende även tagits fram av Maurice Fréchet , Georges Darmois , samt Alexander Aitken och Harold Silverstone .
En opartisk skattare som uppnår denna nedre gräns sägs vara (fullständigt) effektiv . En sådan lösning uppnår lägsta möjliga medelkvadratfel bland alla opartiska metoder, och är därför den minsta variansen opartiska (MVU) skattaren. Men i vissa fall existerar ingen opartisk teknik som uppnår gränsen. Detta kan inträffa antingen för en opartisk skattare, det finns en annan med en strikt mindre varians, eller om det finns en MVU-uppskattare, men dess varians är strikt större än inversen av Fisher-informationen.
Cramér–Rao-gränsen kan också användas för att binda variansen av partiska skattare av given bias. I vissa fall kan ett partiskt tillvägagångssätt resultera i både en varians och ett medelkvadratfel som ligger under den opartiska Cramér–Rao nedre gränsen; se estimatorbias .
Påstående
Cramér–Rao-gränsen anges i det här avsnittet för flera alltmer allmänna fall, som börjar med fallet där parametern är en skalär och dess estimator är opartisk . Alla versioner av bunden kräver vissa regularitetsvillkor, som gäller för de flesta väluppfostrade distributioner. Dessa villkor listas längre fram i detta avsnitt .
Skalärt opartiskt fall
Antag att är en okänd deterministisk parameter som ska uppskattas från oberoende observationer (mått) av , var och en från en fördelning enligt någon sannolikhetstäthetsfunktion . Variansen för en opartisk estimator av begränsas sedan av det reciproka av Fisher-informationen ) :
där Fisher-informationen definieras av
och är den naturliga logaritmen för sannolikhetsfunktionen för ett enstaka prov anger och det förväntade värdet med avseende på densiteten av . Om är dubbelt differentierbar och vissa regularitetsvillkor gäller, kan Fisher-informationen också definieras enligt följande:
Effektiviteten hos en opartisk estimator } mäter hur nära denna estimators varians kommer denna nedre gräns; estimator effektivitet definieras som
eller minsta möjliga varians för en opartisk skattare dividerad med dess faktiska varians. Cramér–Raos nedre gräns ger alltså
-
.
Allmänt skalärt fall
En mer generell form av gränsen kan erhållas genom att betrakta en partisk estimator , vars förväntan inte är utan en funktion av denna parameter, säg . Därför allmänhet inte lika med 0. I detta fall ges gränsen av
där är derivatan av (av ), och är Fisher-informationen definierad ovan.
Bundet på variansen av partiska skattare
Förutom att vara en gräns för skattare av funktioner hos parametern, kan detta tillvägagångssätt användas för att härleda en gräns för variansen av förspända skattare med en given förspänning, enligt följande. Betrakta en estimator med bias , och låt . Enligt resultatet ovan har varje opartisk estimator vars förväntan är en varians större än eller lika med . Således uppfyller alla estimatorer vars bias ges av en funktion
Den opartiska versionen av bunden är ett specialfall av detta resultat, med .
Det är trivialt att ha en liten varians − en "skattare" som är konstant har en varians på noll. Men från ovanstående ekvation finner vi att medelkvadratfelet för en partisk estimator begränsas av
med hjälp av standardsönderdelningen av MSE. Observera dock att om kan denna gräns vara mindre än den opartiska Cramér–Rao-gränsen . Till exempel, i exemplet med att uppskatta varians nedan , .
Multivariat fall
Utvidga Cramér–Rao bunden till flera parametrar, definiera en parameterkolumnvektor
med sannolikhetstäthetsfunktion som uppfyller de två regularitetsvillkoren nedan.
Fishers informationsmatris är en matris med element definierade som
Låt vara en skattare av någon vektorfunktion av parametrar, förväntansvektor med . Cramér–Rao-gränsen anger sedan att kovariansmatrisen för uppfyller
-
,
var
- Matrisolikheten förstås som att matrisen är positiv semidefinit , och
-
är den jakobianska matrisen vars element ges av .
Om är en opartisk skattare av (dvs sedan reduceras Cramér–Rao-gränsen till
Om det är obekvämt att beräkna inversen av Fisher-informationsmatrisen , kan man helt enkelt ta den reciproka av motsvarande diagonala element för att hitta en (eventuellt lös) nedre gräns.
Regularitetsförhållanden
Gränsen förlitar sig på två svaga regularitetsvillkor på sannolikhetstäthetsfunktionen , , och estimatorn :
Bevis
Bevis baserat på.
Bevis
Första ekvationen:
Låt vara en infinitesimal, sedan för valfri pluggning in, vi har
Att plugga in detta i multivariat Chapman–Robbins bound ger .
Andra ekvationen:
Det räcker för att bevisa detta för skalärt fall, där tar värden i . För för allmän kan vi ta vilken och sedan definiera det skalära fallet ger
Detta gäller för alla
så vi kan dra slutsatser
Det skalära fallet anger att
med
.
Låt vara en infinitesimal, sedan för valfri med i envariat Chapman–Robbins bunden ger .
Med linjär algebra, för vilken positiv-definitiv matris , så får vi
Antag att är en estimator med förväntan (baserat på observationerna ), dvs att . Målet är att bevisa att för alla ,
Låt vara en slumpvariabel med sannolikhetstäthetsfunktion . Här en statistik , som används som en estimator för . Definiera som poängen :
där kedjeregeln används i den slutliga jämlikheten ovan. Då är förväntan på , skriven noll. Det här är för att:
där den integrala och den partiella derivatan har bytts ut (motiverad av det andra regularitetsvillkoret).
Om vi betraktar kovariansen av och , har vi eftersom . Att utöka detta uttryck vi har
igen eftersom integrations- och differentieringsoperationerna pendlar (andra villkoret).
Cauchy och Schwarz visar det
därför
vilket bevisar förslaget.
Exempel
Multivariat normalfördelning
För fallet med en d -variat normalfördelning
Fishers informationsmatris har element
där "tr" är spåret .
Låt till exempel vara ett urval av oberoende observationer med okänt medelvärde och känd varians .
Då är Fisher-informationen en skalär som ges av
och så är Cramér–Rao bunden
Normal varians med känt medelvärde
Antag att X är en normalfördelad slumpvariabel med känt medelvärde och okänd varians . Tänk på följande statistik:
Då är T opartisk för , eftersom . Vad är variansen för T ?
(den andra jämlikheten följer direkt av definitionen av varians). Den första termen är det fjärde momentet om medelvärdet och har värdet ; den andra är kvadraten på variansen, eller . Således
Vad är Fisher-informationen i provet? Kom ihåg att partituren definieras som
där är likelihood-funktionen . Så i detta fall,
där den andra likheten är från elementär kalkyl. Således är informationen i en enskild observation bara minus förväntan av derivatan av , eller
Således är informationen i ett urval av oberoende observationer bara gånger detta, eller
Cramér–Rao bunden säger att
I detta fall är ojämlikheten mättad (likhet uppnås), vilket visar att skattaren är effektiv .
Däremot kan vi uppnå ett lägre medelkvadratfel med hjälp av en partisk estimator. Uppskattaren
har uppenbarligen en mindre varians, vilket faktiskt är
Dess partiskhet är
så dess medelkvadratfel är
vilket är klart mindre än vad opartiska skattare kan uppnå enligt Cramér–Rao-gränsen.
När medelvärdet inte är känt, uppnås det minsta medelkvadratfelsuppskattningen av variansen för ett urval från Gauss-fördelningen genom att dividera med istället för eller .
Se även
Referenser och anteckningar
Vidare läsning
externa länkar
-
FandPLimitTool en GUI-baserad programvara för att beräkna Fisher-informationen och Cramér-Rao nedre gräns med tillämpning på enkelmolekylsmikroskopi.