Steins exempel

Inom beslutsteori och uppskattningsteori är Steins exempel (även känt som Steins fenomen eller Steins paradox ) observationen att när tre eller flera parametrar uppskattas samtidigt finns det kombinerade skattare som är mer exakta i genomsnitt (det vill säga med lägre förväntat medelkvadratfel ) än någon metod som hanterar parametrarna separat. Det är uppkallat efter Charles Stein från Stanford University , som upptäckte fenomenet 1955.

En intuitiv förklaring är att optimering för medelkvadratfelet för en kombinerad estimator inte är detsamma som att optimera för felen hos separata estimatorer för de individuella parametrarna. Rent praktiskt, om det kombinerade felet faktiskt är av intresse, bör en kombinerad estimator användas, även om de underliggande parametrarna är oberoende. Om man istället är intresserad av att estimera en enskild parameter, så hjälper det inte att använda en kombinerad estimator och är faktiskt sämre.

Formellt uttalande

Följande är den enklaste formen av paradoxen, det speciella fallet där antalet observationer är lika med antalet parametrar som ska uppskattas. Låt vara en vektor som består av okända parametrar. För att uppskatta dessa parametrar utförs en enda mätning vilket resulterar i en vektor av längden . Anta att mätningarna är kända för att vara oberoende Gaussiska slumpvariabler , med medelvärde och varians 1, dvs. . Således uppskattas varje parameter med hjälp av en enda bullrig mätning, och varje mätning är lika inexakt.

Under dessa förhållanden är det intuitivt och vanligt att använda varje mätning som en uppskattning av dess motsvarande parameter. Denna så kallade "vanliga" beslutsregel kan skrivas som vilket är den maximala sannolikhetsskattaren (MLE). Kvaliteten på en sådan estimator mäts genom dess riskfunktion . En vanlig riskfunktion är medelkvadratfelet , definierat som . Överraskande nog visar det sig att den "vanliga" beslutsregeln är suboptimal ( otillåtlig ) i termer av medelkvadratfel när . Med andra ord, i den inställning som diskuteras här, finns det alternativa estimatorer som alltid uppnår lägre medelkvadratfel , oavsett vad värdet på är. För en given skulle man uppenbarligen kunna definiera en perfekt "estimator" som alltid bara är men denna estimator skulle vara dålig för andra värden på .

Estimatorerna av Steins paradox är, för en given bättre än den "vanliga" beslutsregeln för vissa men nödvändigtvis värre för andra. Det är bara i genomsnitt som de är bättre. Mer exakt sägs en estimator dominera en annan estimator om, för alla värden på risken för är lägre än, eller lika med, risken för och om olikheten är strikt för vissa . En estimator sägs vara tillåten om ingen annan estimator dominerar den, annars är den otillåten . Således kan Steins exempel enkelt uttryckas enligt följande: Den "vanliga" beslutsregeln för medelvärdet för en multivariat Gaussfördelning är otillåten under risk för medelkvadratfel.

Många enkla, praktiska estimatorer uppnår bättre prestanda än den "vanliga" beslutsregeln. Det mest kända exemplet är James–Stein-estimatorn , som krymper mot en viss punkt (som origo) med en mängd omvänt proportionell mot avståndet från den punkten. För en skiss över beviset för detta resultat, se Proof of Steins exempel . Ett alternativt bevis beror på Larry Brown: han bevisade att den vanliga estimatorn för en -dimensionell multivariat normal medelvektor är tillåten om och endast om den -dimensionella Brownska rörelsen är återkommande. Eftersom den Brownska rörelsen inte är återkommande för , är MLE inte tillåtet för .

En intuitiv förklaring

För något speciellt värde på kommer den nya skattaren att förbättra åtminstone ett av de individuella medelkvadratfelen { är mellan −1 och 1, och , då en estimator som linjärt krymper mot 0 med 0,5 ( dvs mjuk tröskel med tröskelvärde ) kommer att ha ett lägre medelkvadratfel än själv. Men det finns andra värden på för vilka denna estimator är sämre än själv. Knepet med Stein-estimatorn, och andra som ger Stein-paradoxen, är att de justerar skiftet på ett sådant sätt att det alltid finns (för varje θ {\displaystyle {\ vektor) minst en vars medelkvadratfel är förbättrat, och dess förbättring mer än kompenserar för eventuell försämring av medelkvadratfel som kan uppstå för ett annat . Problemet är att, utan att känna till , vet du inte vilket av de medelkvadratfelen som är förbättrade, så du kan inte använda Stein-estimatorn endast för dessa parametrar.

Ett exempel på ovanstående inställning förekommer vid kanaluppskattning inom telekommunikation, till exempel, eftersom olika faktorer påverkar den övergripande kanalprestandan.

Implikationer

Steins exempel är överraskande, eftersom den "vanliga" beslutsregeln är intuitiv och allmänt använd. Faktum är att många metoder för estimatorkonstruktion, inklusive maximal sannolikhetsuppskattning , bästa linjära opartiska skattning , minsta kvadratuppskattning och optimal ekvivariantuppskattning , alla resulterar i den "vanliga" skattaren. Ändå, som diskuterats ovan, är denna estimator suboptimal.

Exempel

För att visa den ointuitiva karaktären hos Steins exempel, överväg följande exempel i verkligheten. Anta att vi ska uppskatta tre orelaterade parametrar, såsom den amerikanska veteutbytet för 1993, antalet åskådare vid Wimbledon-tennisturneringen 2001 och vikten av en slumpmässigt vald godiskaka från snabbköpet. Antag att vi har oberoende gaussiska mätningar av var och en av dessa storheter. Steins exempel säger oss nu att vi kan få en bättre uppskattning (i genomsnitt) för vektorn av tre parametrar genom att samtidigt använda de tre orelaterade mätningarna.

Vid första anblicken verkar det som om vi på något sätt får en bättre uppskattning av USA:s veteutbyte genom att mäta annan orelaterade statistik som antalet åskådare på Wimbledon och vikten på en godisbar. Vi har dock inte erhållit en bättre estimator för amerikanskt veteskörd i sig, men vi har tagit fram en estimator för vektorn av medelvärdena för alla tre slumpvariablerna, vilket har en minskad total risk . Detta beror på att kostnaden för en dålig uppskattning i en komponent av vektorn kompenseras av en bättre uppskattning i en annan komponent. En specifik uppsättning av de tre uppskattade medelvärdena som erhålls med den nya skattaren kommer inte nödvändigtvis att vara bättre än den vanliga uppsättningen (de uppmätta värdena). Det är bara i genomsnitt som den nya skattaren är bättre.

Skissat bevis

Riskfunktionen för beslutsregeln } är

Överväg nu beslutsregeln

där . Vi kommer att visa att är en bättre beslutsregel än . Riskfunktionen är

— en kvadratisk i . Vi kan förenkla mellantermen genom att överväga en allmän "väluppfostrad" funktion och använder integrering av delar . För , för varje kontinuerligt differentierbar som växer tillräckligt långsamt för stora har vi:

Därför,

(Detta resultat är känt som Steins lemma .) Nu väljer vi

Om uppfyllde villkoret "väluppfostrade" (det gör det inte, men detta kan åtgärdas—se nedan), skulle vi ha

och så

Återgår sedan till riskfunktionen för :

Denna kvadratiska i minimeras vid , vilket ger

vilket givetvis uppfyller vilket gör till en otillåten beslutsregel.

Det återstår att motivera användningen av

Denna funktion är inte kontinuerligt differentierbar, eftersom den är singular vid . Men funktionen

är kontinuerligt differentierbar, och efter att ha följt algebra genom och låtit får man samma resultat.

Se även

Anteckningar