Opartisk uppskattning av standardavvikelse
I statistik och i synnerhet statistisk teori är opartisk uppskattning av en standardavvikelse beräkningen från ett statistiskt urval av ett uppskattat värde av standardavvikelsen (ett mått på statistisk spridning ) för en population av värden, på ett sådant sätt att det förväntade värdet av beräkningen är lika med det verkliga värdet. Förutom i några viktiga situationer, som beskrivs senare, har uppgiften liten relevans för tillämpningar av statistik eftersom dess behov undviks genom standardprocedurer, såsom användningen av signifikanstest och konfidensintervall , eller genom att använda Bayesiansk analys .
Men för statistisk teori ger den ett exemplariskt problem i samband med skattningsteori som är både enkelt att ange och för vilket resultat inte kan erhållas i sluten form. Det ger också ett exempel där kravet på opartisk uppskattning kan ses som att bara lägga till besvär, utan någon verklig fördel.
Motivering
I statistik uppskattas standardavvikelsen för en population av siffror ofta från ett slumpmässigt urval från populationen . Detta är provets standardavvikelse, som definieras av
där är stickprovet (formellt realisationer från en slumpvariabel X ) och är sampelmedelvärdet .
Ett sätt att se att detta är en partisk estimator av populationens standardavvikelse (om den finns och stickproven dras oberoende med ersättning) är att s 2 redan är en estimator av populationsvariansen σ 2 med låg bias. Eftersom endast linjära funktioner pendlar med att ta förväntningar och kvadratroten är en strikt konkav funktion, följer det av Jensens olikhet att kvadratroten av urvalsvariansen också har en låg bias.
Användningen av n − 1 istället för n i formeln för urvalsvariansen kallas Bessels korrigering , och det ger
Den korrigerar snedvridningen i uppskattningen av populationsvariansen, och en del, men inte hela, biasen i uppskattningen av populationens standardavvikelse.
Det är inte möjligt att hitta en uppskattning av standardavvikelsen som är opartisk för alla populationsfördelningar, eftersom biasen beror på den specifika fördelningen. Mycket av det följande hänför sig till uppskattning med antagande av en normalfördelning .
Fördomskorrigering
Resultat för normalfördelningen
När den slumpmässiga variabeln är normalfördelad , finns en mindre korrigering för att eliminera bias. För att härleda korrigeringen , notera att för normalfördelat X innebär Cochrans sats att har en chi kvadratfördelning med frihetsgrader och därmed dess kvadratrot, har en chi-fördelning med frihetsgrader. Följaktligen beräknar förväntan av detta sista uttryck och omarrangerar konstanter,
där korrektionsfaktorn är skalmedelvärdet för chi-fördelningen med frihetsgrader, . Detta beror på provstorleken n och ges enligt följande:
där Γ(·) är gammafunktionen . En opartisk estimator av σ kan erhållas genom att dividera med . När blir stor närmar den sig 1, och även för mindre värden är korrigeringen mindre. Figuren visar ett diagram av kontra provstorlek. Tabellen nedan ger numeriska värden för och algebraiska uttryck för vissa värden på ; mer fullständiga tabeller kan hittas i de flesta läroböcker [ citat behövs ] om statistisk kvalitetskontroll .
Provstorlek | Uttryck för | Numeriskt värde |
---|---|---|
2 | 0,7978845608 | |
3 | 0,8862269255 | |
4 | 0,9213177319 | |
5 | 0,9399856030 | |
6 | 0,9515328619 | |
7 | 0,9593687891 | |
8 | 0,9650304561 | |
9 | 0,9693106998 | |
10 | 0,9726592741 | |
100 | 0,9974779761 | |
1000 | 0,9997497811 | |
10 000 | 0,9999749978 | |
2k | ||
2k+1 |
Det är viktigt att komma ihåg att denna korrigering endast producerar en opartisk estimator för normalt och oberoende fördelade X . När detta villkor är uppfyllt är ett annat resultat om s som involverar att standardfelet för s är , medan standardfelet för den opartiska skattaren är
Tumregel för normalfördelningen
Om beräkningen av funktionen c 4 ( n ) verkar för svår finns det en enkel tumregel för att ta skattaren
Formeln skiljer sig från det välbekanta uttrycket för s 2 endast genom att ha n − 1,5 istället för n − 1 i nämnaren. Detta uttryck är endast ungefärligt; faktiskt,
Biasen är relativt liten: säg, för är den lika med 1,3 %, och för är biasen redan 0,1%.
Andra distributioner
I de fall där statistiskt oberoende data modelleras av en parametrisk familj av andra fördelningar än normalfördelningen, kommer populationens standardavvikelse, om den finns, att vara en funktion av modellens parametrar. Ett allmänt tillvägagångssätt för uppskattning skulle vara maximal sannolikhet . Alternativt kan det vara möjligt att använda Rao–Blackwell-satsen som en väg för att hitta en bra uppskattning av standardavvikelsen. I ingetdera fallet skulle de erhållna uppskattningarna vanligtvis vara opartiska. I teorin kan teoretiska justeringar erhållas för att leda till opartiska uppskattningar, men till skillnad från de för normalfördelningen skulle dessa vanligtvis bero på de uppskattade parametrarna.
Om kravet helt enkelt är att minska biasen för en uppskattad standardavvikelse, snarare än att eliminera den helt, så finns två praktiska tillvägagångssätt tillgängliga, båda inom ramen för omsampling . Dessa är jackknifing och bootstrapping . Båda kan tillämpas antingen på parametriskt baserade uppskattningar av standardavvikelsen eller på provets standardavvikelse.
För icke-normalfördelningar är en ungefärlig (upp till O ( n −1 ) termer) formel för den opartiska skattaren av standardavvikelsen
där γ 2 anger populationsöverskottet kurtosis . Överskottet av kurtos kan antingen vara känt i förväg för vissa distributioner eller uppskattat från data.
Effekt av autokorrelation (seriell korrelation)
Materialet ovan, för att återigen betona poängen, gäller endast oberoende data. Däremot uppfyller verkliga data ofta inte detta krav; den är autokorrelerad (även känd som seriell korrelation). Som ett exempel kommer de successiva avläsningarna av ett mätinstrument som innehåller någon form av "utjämnande" (mer korrekt, lågpassfiltrering) process att autokorreleras, eftersom ett visst värde beräknas från någon kombination av tidigare och senare avläsningar.
Uppskattningar av variansen och standardavvikelsen för autokorrelerade data kommer att vara partiska. Det förväntade värdet på urvalsvariansen är
där n är provstorleken (antal mätningar) och är autokorrelationsfunktionen (ACF) för datan. (Observera att uttrycket inom parentes helt enkelt är ett minus den genomsnittliga förväntade autokorrelationen för avläsningarna.) Om ACF består av positiva värden kommer uppskattningen av variansen (och dess kvadratrot, standardavvikelsen) att vara lågt partisk. Det vill säga, den faktiska variabiliteten hos datan kommer att vara större än den som indikeras av en okorrigerad varians eller standardavvikelseberäkning. Det är viktigt att inse att, om detta uttryck ska användas för att korrigera för bias, genom att dividera uppskattningen med kvantiteten inom parentes ovan, så måste ACF vara känd analytiskt , inte via uppskattning från data. Detta beror på att den uppskattade ACF i sig kommer att vara partisk.
Exempel på bias i standardavvikelse
För att illustrera storleken på förspänningen i standardavvikelsen, överväg en datauppsättning som består av sekventiella avläsningar från ett instrument som använder ett specifikt digitalt filter vars ACF är känt för att ges av
där α är parametern för filtret, och det tar värden från noll till enhet. Således är ACF positiv och geometriskt minskande.
Figuren visar förhållandet mellan den uppskattade standardavvikelsen och dess kända värde (som kan beräknas analytiskt för detta digitala filter), för flera inställningar av α som funktion av provstorleken n . Att ändra α ändrar variansreduktionsförhållandet för filtret, vilket är känt för att vara
så att mindre värden på α resulterar i mer variansreduktion, eller "utjämning". Förspänningen indikeras av värden på den vertikala axeln som skiljer sig från enhet; det vill säga, om det inte fanns någon bias skulle förhållandet mellan den uppskattade och kända standardavvikelsen vara enhet. Det är uppenbart att för blygsamma urvalsstorlekar kan det finnas betydande bias (en faktor två eller mer).
Varians av medelvärdet
Det är ofta av intresse att uppskatta variansen eller standardavvikelsen för ett uppskattat medelvärde snarare än variansen för en population. När data autokorreleras har detta en direkt effekt på den teoretiska variansen av urvalsmedelvärdet, vilket är
Variansen för urvalsmedelvärdet kan sedan uppskattas genom att ersätta en uppskattning av σ 2 . En sådan uppskattning kan erhållas från ekvationen för E[s 2 ] som ges ovan. Definiera först följande konstanter, med antagande, återigen, en känd ACF:
så att
Detta säger att det förväntade värdet av kvantiteten som erhålls genom att dividera den observerade provvariansen med korrektionsfaktorn ger en opartisk uppskattning av variansen. På liknande sätt, om du skriver om uttrycket ovan för variansen av medelvärdet,
och att ersätta uppskattningen för ger
som är en opartisk estimator av variansen av medelvärdet i termer av den observerade provvariansen och kända kvantiteter. Om autokorrelationerna är identiskt noll, reduceras detta uttryck till det välkända resultatet för variansen av medelvärdet för oberoende data. Effekten av förväntningsoperatorn i dessa uttryck är att jämlikheten håller i medelvärdet (dvs i genomsnitt).
Uppskattning av standardavvikelsen för befolkningen
Med uttrycken ovan som involverar variansen av populationen, och en uppskattning av medelvärdet för den populationen, verkar det logiskt att helt enkelt ta kvadratroten av dessa uttryck för att få opartiska uppskattningar av respektive standardavvikelser. Men det är så att eftersom förväntningar är integraler,
Antag istället att en funktion θ existerar så att en opartisk estimator av standardavvikelsen kan skrivas
och θ beror på provstorleken n och ACF. I fallet med NID-data (normalt och oberoende distribuerade) är radikanden enhet och θ är bara c 4 -funktionen som ges i det första avsnittet ovan. Liksom med c 4 närmar sig θ enhet när provstorleken ökar (liksom γ 1 ) .
Det kan påvisas genom simuleringsmodellering att man ignorerar θ (det vill säga tar det för att vara enhet) och använder
tar bort alla utom några få procent av bias som orsakas av autokorrelation, vilket gör detta till en reducerad -bias-estimator snarare än en opartisk skattare. I praktiska mätsituationer kan denna minskning av bias vara betydande och användbar, även om en relativt liten bias kvarstår. Figuren ovan, som visar ett exempel på biasen i standardavvikelsen vs. urvalsstorleken, är baserad på denna approximation; den faktiska biasen skulle vara något större än vad som anges i dessa grafer eftersom transformationsbiasen θ inte är inkluderad där.
Uppskattning av standardavvikelsen för provmedelvärdet
Den opartiska variansen av medelvärdet i termer av populationsvariansen och ACF ges av
och eftersom det inte finns några förväntade värden här, kan i detta fall kvadratroten tas, så att
Genom att använda det opartiska uppskattningsuttrycket ovan för σ blir en uppskattning av standardavvikelsen för medelvärdet då
Om data är NID, så att ACF försvinner, minskar detta till
I närvaro av en icke-noll ACF leder ignorering av funktionen θ som tidigare till den reducerade -bias-estimatorn
vilket återigen kan påvisas ta bort en användbar majoritet av partiskheten.
Se även
- Douglas C. Montgomery och George C. Runger, Applied Statistics and Probability for Engineers , 3:e upplagan, Wiley and sons, 2003. (se avsnitt 7–2.2 och 16–5)
externa länkar
- En interaktiv Java-grafik som visar Helmert PDF-filen från vilken bias-korrigeringsfaktorerna härleds.
- Monte-Carlo simuleringsdemo för opartisk uppskattning av standardavvikelse.
- http://www.itl.nist.gov/div898/handbook/pmc/section3/pmc32.htm Vad är variabelkontrolldiagram?
Den här artikeln innehåller material som är allmän egendom från National Institute of Standards and Technology .