Walds ekvation

Inom sannolikhetsteorin är Walds ekvation , Walds identitet eller Walds lemma en viktig identitet som förenklar beräkningen av det förväntade värdet av summan av ett slumpmässigt antal slumpmässiga storheter. I sin enklaste form relaterar den förväntan på en summa av slumpmässigt många ändliga medelvärden, oberoende och identiskt fördelade stokastiska variabler till det förväntade antalet termer i summan och stokastiska variablernas gemensamma förväntan under förutsättning att antalet termer i summan är oberoende av summan.

Ekvationen är uppkallad efter matematikern Abraham Wald . En identitet för det andra ögonblicket ges av Blackwell-Girshicks ekvation.

Grundversion

Låt ( X n ) n vara en sekvens av reellt värderade, oberoende och identiskt fördelade slumpvariabler och låt N ≥ 0 vara en slumpvariabel med heltalsvärde som är oberoende av sekvensen ( X n ) n . Antag att N och X n har ändliga förväntningar. Sedan

Exempel

Kasta en sexsidig tärning . Ta numret på tärningen (kalla det N ) och slå det antalet sexsidiga tärningar för att få siffrorna X 1 , . . . , X N , och summera deras värden. Enligt Walds ekvation är det resulterande värdet i genomsnitt

Allmän version

Låt ( X n ) n vara en oändlig sekvens av reellt värderade slumpvariabler och låt N vara en icke-negativ heltalsvärd slumpvariabel.

Anta att:

. ( X n ) n är alla integrerbara (finita medelvärde) slumpvariabler,
. E[ X n 1 { N n } ] = E[ X n ] P( N n ) för varje naturligt tal n , och
. den oändliga serien uppfyller

Sedan de slumpmässiga summorna

är integrerbara och

Om dessutom

. ( X n ) n har alla samma förväntningar, och
. N har begränsade förväntningar,

sedan

Anmärkning: Vanligtvis syftar namnet Walds ekvation på denna sista likhet.

Diskussion av antaganden

klart att antagande ( 1 ) behövs för att formulera antagande ( 2 ) och Walds ekvation. Antagande ( 2 ) styr mängden beroende som tillåts mellan sekvensen ( X n ) n och antalet N termer; se motexemplet nedan för nödvändigheten . Observera att antagande ( 2 ) är uppfyllt när N är en stopptid för sekvensen ( X n ) n . [ citat behövs ] Antagande ( 3 ) är av mer teknisk natur, vilket innebär absolut konvergens och tillåter därför godtycklig omarrangering av en oändlig serie i beviset.

Om antagande ( 5 ) är uppfyllt, kan antagande ( 3 ) stärkas till det enklare tillståndet

. det finns en reell konstant C så att E[| Xn _ | 1 { N n } ] ≤ C P( N n ) för alla naturliga tal n .

Genom att använda antaganden ( 6 ),

  och den sista serien är lika med förväntan på N [ Bevis ] , som är ändlig genom antagande ( 5 ). Därför innebär ( 5 ) och ( 6 ) antagande ( 3 ).

Antag utöver ( 1 ) och ( 5 ) att

. N är oberoende av sekvensen ( X n ) n och
. det finns en konstant C så att E[| X n |] ≤ C för alla naturliga tal n .

Då är alla antaganden ( 1 ), ( 2 ), ( 5 ) och ( 6 ), alltså även ( 3 ), uppfyllda. I synnerhet är villkoren ( 4 ) och ( 8 ) uppfyllda om

. de slumpmässiga variablerna ( X n ) n har alla samma fördelning.

Observera att de slumpmässiga variablerna för sekvensen ( X n ) n inte behöver vara oberoende.

Det intressanta är att erkänna ett visst beroende mellan det slumpmässiga antalet N av termer och sekvensen ( X n ) n . En standardversion är att anta ( 1 ), ( 5 ), ( 8 ) och förekomsten av en filtrering ( F n ) n 0 så att

. N är en stopptid med avseende på filtreringen, och
. X n och F n –1 är oberoende för varje n .

Då antyder ( Xn 10 ) att händelsen { N n } = { N n – 1} c är i F n –1 , alltså med ( 11 ) oberoende av . Detta innebär ( 2 ), och tillsammans med ( 8 ) innebär det ( 6 ).

För enkelhetens skull (se beviset nedan med den valfria stoppsatsen) och för att specificera förhållandet mellan sekvensen ( X n ) n och filtreringen ( F n ) n 0 , införs ofta följande ytterligare antagande:

. sekvensen ( X n ) n är anpassad till filtreringen ( F n ) n , vilket betyder att X n är F n -mätbar för varje n .

Observera att ( 11 ) och ( 12 ) tillsammans innebär att de slumpmässiga variablerna ( X n ) n är oberoende.

Ansökan

En ansökan är i försäkringsteknisk vetenskap när man beaktar det totala skadebeloppet följer en sammansatt Poisson-process

inom en viss tidsperiod, säg ett år, som härrör från ett slumpmässigt antal N av individuella försäkringsskador, vars storlek beskrivs av de slumpmässiga variablerna ( X n ) n N . Under ovanstående antaganden kan Walds ekvation användas för att beräkna det förväntade totala skadebeloppet när information om det genomsnittliga skadetalet per år och den genomsnittliga skadestorleken finns tillgänglig. Under starkare antaganden och med mer information om de underliggande fördelningarna Panjers rekursion användas för att beräkna fördelningen av S N .

Exempel

Exempel med beroende termer

Låt N vara en integrerbar, 0 -värderad slumpvariabel, som är oberoende av den integrerbara, reella slumpvariabeln Z med E[ Z ] = 0 . Definiera X n = (–1) n Z för alla n . Sedan antaganden ( 1 ), ( 5 ), ( 7 ) och ( 8 ) med C := E[| Z |] är uppfyllda, därav också ( 2 ) och ( 6 ), och Walds ekvation gäller. Om fördelningen av Z inte är symmetrisk, så håller inte ( 9 ). Observera att när Z inte nästan säkert är lika med den slumpmässiga variabeln noll, då kan ( 11 ) och ( 12 ) inte hållas samtidigt för någon filtrering ( F n ) n , eftersom Z inte kan vara oberoende av sig själv eftersom E[ Z 2 ] = (E[ Z ]) 2 = 0 är omöjligt.

Exempel där antalet termer beror på sekvensen

Låt ( X n ) n vara en sekvens av oberoende, symmetriska och {–1, +1 }-värdade slumpvariabler. För varje n låt F n vara σ-algebra som genereras av X 1 , . . . , Xn värdet och definiera N = n när Xn . är den första slumpvariabeln som tar +1 Notera att P( N = n ) = 1/2 n , därav E[ N ] < ∞ genom förhållandetestet . Antagandena ( 1 ), ( 5 ) och ( 9 ), därav ( 4 ) och ( 8 ) med C = 1 , ( 10 ), ( 11 ) och ( 12 ) gäller, därav också ( 2 ) och ( 6 ) ) och Walds ekvation gäller. Men ( 7 ) håller inte, eftersom N definieras i termer av sekvensen ( X n ) n . Intuitivt kan man förvänta sig att ha E[ S N ] > 0 i det här exemplet, eftersom summeringen stannar direkt efter en etta, vilket tydligen skapar en positiv bias. Walds ekvation visar dock att denna intuition är missvisande.

Motexempel

Ett motexempel som illustrerar nödvändigheten av antagande ( 2 )

1/2 en { sekvens ( X n ) n av iid (oberoende och identiskt fördelade slumpvariabler) slumpvariabler, med vart och ett av de två värdena 0 och 1 med sannolikhet (faktiskt endast X 1 behövs i det följande). Definiera N = 1 – X 1 . Då S N identiskt lika med noll, därav E[ S N ] = 0 , men E[ X 1 ] = 1 / 2 och E[ N ] = 1 / 2 och därför håller inte Walds ekvation. Faktum är att antagandena ( 1 ), ( 3 ), ( 4 ) och ( 5 ) är uppfyllda, men ekvationen i antagande ( 2 ) gäller för alla n förutom n = 1 .

Ett motexempel som illustrerar nödvändigheten av antagande ( 3 )

Mycket likt det andra exemplet ovan, låt ( X n ) n vara en sekvens av oberoende, symmetriska slumpvariabler, där X n tar vart och ett av värdena 2 n och –2 n med sannolikhet 1/2 _ _ . Låt N vara den första n så att X n = 2 n . Sedan, som ovan, N ändlig förväntan, därför gäller antagande ( 5 ). Eftersom E[ X n ] = 0 för alla n gäller antaganden ( 1 ) och ( 4 ). Men eftersom S N = 1 nästan säkert, kan Walds ekvation inte hålla.

Eftersom N är en stopptid med avseende på filtreringen som genereras av ( X n ) n antagande ( 2 ), se ovan. Därför kan endast antagandet ( 3 ) misslyckas, och faktiskt, sedan

och därför P( N n ) = 1/2 n –1 för varje n , det följer att

Ett bevis med den valfria stoppsatsen

Antag ( 1 ), ( 5 ), ( 8 ), ( 10 ), ( 11 ) och ( 12 ). Använd antagande ( 1 ), definiera sekvensen av slumpvariabler

Antagande ( 11 ) innebär att den villkorade förväntan av X n givet F n –1 är lika med E[ X n ] nästan säkert för varje n , därav ( M n ) n 0 är en martingal med avseende på filtreringen ( F n ) n 0 genom antagande ( 12 ). Antaganden ( 5 ), ( 8 ) och ( 10 ) säkerställer att vi kan tillämpa den valfria stoppsatsen , därför är M N = S N T N integrerbar och

 

 

 

 

()

På grund av antagande ( 8 ),

och på grund av antagandet ( 5 ) är denna övre gräns integrerbar. Därför kan vi lägga till förväntan på T N på båda sidor av ekvation ( 13 ) och erhålla genom linjäritet

Anmärkning: Observera att detta bevis inte täcker ovanstående exempel med beroende termer .

Allmänt bevis

Detta bevis använder endast Lebesgues monotona och dominerade konvergenssatser . Vi bevisar påståendet enligt ovan i tre steg.

Steg 1: Integrerbarheten av den slumpmässiga summan S N

Vi visar först att den slumpmässiga summan S N är integrerbar. Definiera delsummorna

 

 

 

 

()

Eftersom N tar sina värden i 0 och eftersom 0 S = 0 , följer det att

Lebesgues monotona konvergenssats antyder det

Genom triangelojämlikheten,

Genom att använda denna övre uppskattning och ändra summeringsordningen (vilket är tillåtet eftersom alla termer är icke-negativa) får vi

 

 

 

 

()

där den andra olikheten följer med den monotona konvergenssatsen. Genom antagande ( 3 ) konvergerar den oändliga sekvensen på höger sida av ( 15 ), så S N är integrerbar.

Steg 2: Integrerbarheten av den slumpmässiga summan T N

Vi visar nu att den slumpmässiga summan T N är integrerbar. Definiera delsummorna

 

 

 

 

()

av reella tal. Eftersom N tar sina värden i 0 och eftersom 0 T = 0 , följer det att

Liksom i steg 1 innebär Lebesgues monotona konvergenssats det

Genom triangelojämlikheten,

Genom att använda denna övre uppskattning och ändra summeringsordningen (vilket är tillåtet eftersom alla termer är icke-negativa) får vi

 

 

 

 

()

Genom antagande ( 2 ),

Ersätter detta med ( 17 ) avkastning

som är ändlig genom antagande ( 3 ), därför är T N integrerbar.

Steg 3: Bevis på identiteten

För att bevisa Walds ekvation går vi i huvudsak igenom samma steg igen utan absolutvärdet, och använder oss av integrerbarheten av de slumpmässiga summorna S N och T N för att visa att de har samma förväntningar.

Använder den dominerade konvergenssatsen med dominerande stokastisk variabel | S N | och definitionen av delsumman Si som ges i ( 14 ), det följer att

På grund av den absoluta konvergensen som bevisats i ( 15 ) ovan med antagande ( 3 ), kan vi ordna om summeringen och erhålla att

där vi använde antagande ( 1 ) och den dominerade konvergenssatsen med dominerande stokastisk variabel | Xn _ | för den andra jämlikheten. På grund av antagande ( 2 ) och σ-additiviteten för sannolikhetsmåttet,

Att ersätta detta resultat i den föregående ekvationen, arrangera om summeringen (vilket är tillåtet på grund av absolut konvergens, se ( 15 ) ovan), med hjälp av förväntans linjäritet och definitionen av den partiella summan Ti av förväntningarna som ges i ( 16 ),

Genom att använda dominerad konvergens igen med dominerande stokastisk variabel | T N | ,

Om antagandena ( 4 ) och ( 5 ) är uppfyllda, kan förväntans linjäritet,

Detta fullbordar beviset.

Ytterligare generaliseringar

  • Walds ekvation kan överföras till R d -värderade slumpvariabler ( X n ) n genom att tillämpa den endimensionella versionen på varje komponent.
  • Om ( X n ) n är Bochner-integrerbara slumpvariabler som tar värden i ett Banach-utrymme , så kan det allmänna beviset ovan justeras därefter.

Se även

Anteckningar

externa länkar