Chapman–Robbins bunden

Inom statistik är Chapman –Robbins bound eller Hammersley–Chapman–Robbins bound en nedre gräns för variansen av estimatorer för en deterministisk parameter. Det är en generalisering av Cramér–Rao bunden ; jämfört med Cramér–Rao-gränsen är den både snävare och tillämpbar på ett bredare spektrum av problem. Det är dock oftast svårare att beräkna.

Bindningen upptäcktes oberoende av John Hammersley 1950 och av Douglas Chapman och Herbert Robbins 1951.

Påstående

Låt vara uppsättningen parametrar för en familj av sannolikhetsfördelningar .

För alla två , låt vara -divergensen från till . Sedan

Sats Givet vilken skalär funktion som helst på parametern och två valfria vi har .

En generalisering till det multivariabla fallet är

Teorem Givet valfri multivariatfunktion på modellen och alla ,

Bevis

Genom variationsrepresentationen av chi-kvadratdivergens ,

Plugga in , för att få
Byt nämnare och vänster sida, och ta överlägsen för att få fallet med envariabel.

För det multivariata fallet definierar vi för valfri . Anslut sedan i variationsrepresentationen för att få

Ta det högsta över med hjälp av det linjära algebra faktum att , vi får det multivariata fallet.

Relation till Cramér–Rao bunden

Uttrycket inuti supremumet i Chapman–Robbins-bunden konvergerar till Cramér–Rao-bunden när , förutsatt att regelbundenheten för Cramér-Rao-bunden håller. Detta innebär att, när båda gränserna existerar, är Chapman-Robbins-versionen alltid minst lika snäv som Cramér-Rao bunden; i många fall är den betydligt stramare.

Chapman-Robbins bunden håller också under mycket svagare regularitetsförhållanden. Till exempel görs inget antagande om differentiabilitet för sannolikhetstäthetsfunktionen p ( x ; θ ). När p ( x ; θ ) är icke-differentierbar är Fisher-informationen inte definierad, och därför existerar inte Cramér-Rao-gränsen.

Se även

Vidare läsning

  •   Lehmann, EL; Casella, G. (1998), Theory of Point Estimation (2:a upplagan), Springer, s. 113–114, ISBN 0-387-98502-6