Walds ekvation
Inom sannolikhetsteorin är Walds ekvation , Walds identitet eller Walds lemma en viktig identitet som förenklar beräkningen av det förväntade värdet av summan av ett slumpmässigt antal slumpmässiga storheter. I sin enklaste form relaterar den förväntan på en summa av slumpmässigt många ändliga medelvärden, oberoende och identiskt fördelade stokastiska variabler till det förväntade antalet termer i summan och stokastiska variablernas gemensamma förväntan under förutsättning att antalet termer i summan är oberoende av summan.
Ekvationen är uppkallad efter matematikern Abraham Wald . En identitet för det andra ögonblicket ges av Blackwell-Girshicks ekvation.
Grundversion
Låt ( X n ) n ∈ vara en sekvens av reellt värderade, oberoende och identiskt fördelade slumpvariabler och låt N ≥ 0 vara en slumpvariabel med heltalsvärde som är oberoende av sekvensen ( X n ) n ∈ . Antag att N och X n har ändliga förväntningar. Sedan
Exempel
Kasta en sexsidig tärning . Ta numret på tärningen (kalla det N ) och slå det antalet sexsidiga tärningar för att få siffrorna X 1 , . . . , X N , och summera deras värden. Enligt Walds ekvation är det resulterande värdet i genomsnitt
Allmän version
Låt ( X n ) n ∈ vara en oändlig sekvens av reellt värderade slumpvariabler och låt N vara en icke-negativ heltalsvärd slumpvariabel.
Anta att:
- . ( X n ) n ∈ är alla integrerbara (finita medelvärde) slumpvariabler,
- . E[ X n 1 { N ≥ n } ] = E[ X n ] P( N ≥ n ) för varje naturligt tal n , och
- . den oändliga serien uppfyller
Sedan de slumpmässiga summorna
är integrerbara och
Om dessutom
- . ( X n ) n ∈ har alla samma förväntningar, och
- . N har begränsade förväntningar,
sedan
Anmärkning: Vanligtvis syftar namnet Walds ekvation på denna sista likhet.
Diskussion av antaganden
klart att antagande ( 1 ) behövs för att formulera antagande ( 2 ) och Walds ekvation. Antagande ( 2 ) styr mängden beroende som tillåts mellan sekvensen ( X n ) n ∈ och antalet N termer; se motexemplet nedan för nödvändigheten . Observera att antagande ( 2 ) är uppfyllt när N är en stopptid för sekvensen ( X n ) n ∈ . [ citat behövs ] Antagande ( 3 ) är av mer teknisk natur, vilket innebär absolut konvergens och tillåter därför godtycklig omarrangering av en oändlig serie i beviset.
Om antagande ( 5 ) är uppfyllt, kan antagande ( 3 ) stärkas till det enklare tillståndet
- . det finns en reell konstant C så att E[| Xn _ | 1 { N ≥ n } ] ≤ C P( N ≥ n ) för alla naturliga tal n .
Genom att använda antaganden ( 6 ),
och den sista serien är lika med förväntan på N [ Bevis ] , som är ändlig genom antagande ( 5 ). Därför innebär ( 5 ) och ( 6 ) antagande ( 3 ).
Antag utöver ( 1 ) och ( 5 ) att
- . N är oberoende av sekvensen ( X n ) n ∈ och
- . det finns en konstant C så att E[| X n |] ≤ C för alla naturliga tal n .
Då är alla antaganden ( 1 ), ( 2 ), ( 5 ) och ( 6 ), alltså även ( 3 ), uppfyllda. I synnerhet är villkoren ( 4 ) och ( 8 ) uppfyllda om
- . de slumpmässiga variablerna ( X n ) n ∈ har alla samma fördelning.
Observera att de slumpmässiga variablerna för sekvensen ( X n ) n ∈ inte behöver vara oberoende.
Det intressanta är att erkänna ett visst beroende mellan det slumpmässiga antalet N av termer och sekvensen ( X n ) n ∈ . En standardversion är att anta ( 1 ), ( 5 ), ( 8 ) och förekomsten av en filtrering ( F n ) n ∈ 0 så att
- . N är en stopptid med avseende på filtreringen, och
- . X n och F n –1 är oberoende för varje n ∈ .
Då antyder ( Xn 10 ) att händelsen { N ≥ n } = { N ≤ n – 1} c är i F n –1 , alltså med ( 11 ) oberoende av . Detta innebär ( 2 ), och tillsammans med ( 8 ) innebär det ( 6 ).
För enkelhetens skull (se beviset nedan med den valfria stoppsatsen) och för att specificera förhållandet mellan sekvensen ( X n ) n ∈ och filtreringen ( F n ) n ∈ 0 , införs ofta följande ytterligare antagande:
- . sekvensen ( X n ) n ∈ är anpassad till filtreringen ( F n ) n ∈ , vilket betyder att X n är F n -mätbar för varje n ∈ .
Observera att ( 11 ) och ( 12 ) tillsammans innebär att de slumpmässiga variablerna ( X n ) n ∈ är oberoende.
Ansökan
En ansökan är i försäkringsteknisk vetenskap när man beaktar det totala skadebeloppet följer en sammansatt Poisson-process
inom en viss tidsperiod, säg ett år, som härrör från ett slumpmässigt antal N av individuella försäkringsskador, vars storlek beskrivs av de slumpmässiga variablerna ( X n ) n ∈ N . Under ovanstående antaganden kan Walds ekvation användas för att beräkna det förväntade totala skadebeloppet när information om det genomsnittliga skadetalet per år och den genomsnittliga skadestorleken finns tillgänglig. Under starkare antaganden och med mer information om de underliggande fördelningarna Panjers rekursion användas för att beräkna fördelningen av S N .
Exempel
Exempel med beroende termer
Låt N vara en integrerbar, 0 -värderad slumpvariabel, som är oberoende av den integrerbara, reella slumpvariabeln Z med E[ Z ] = 0 . Definiera X n = (–1) n Z för alla n ∈ . Sedan antaganden ( 1 ), ( 5 ), ( 7 ) och ( 8 ) med C := E[| Z |] är uppfyllda, därav också ( 2 ) och ( 6 ), och Walds ekvation gäller. Om fördelningen av Z inte är symmetrisk, så håller inte ( 9 ). Observera att när Z inte nästan säkert är lika med den slumpmässiga variabeln noll, då kan ( 11 ) och ( 12 ) inte hållas samtidigt för någon filtrering ( F n ) n ∈ , eftersom Z inte kan vara oberoende av sig själv eftersom E[ Z 2 ] = (E[ Z ]) 2 = 0 är omöjligt.
Exempel där antalet termer beror på sekvensen
Låt ( X n ) n ∈ vara en sekvens av oberoende, symmetriska och {–1, +1 }-värdade slumpvariabler. För varje n ∈ låt F n vara σ-algebra som genereras av X 1 , . . . , Xn värdet och definiera N = n när Xn . är den första slumpvariabeln som tar +1 Notera att P( N = n ) = 1/2 n , därav E[ N ] < ∞ genom förhållandetestet . Antagandena ( 1 ), ( 5 ) och ( 9 ), därav ( 4 ) och ( 8 ) med C = 1 , ( 10 ), ( 11 ) och ( 12 ) gäller, därav också ( 2 ) och ( 6 ) ) och Walds ekvation gäller. Men ( 7 ) håller inte, eftersom N definieras i termer av sekvensen ( X n ) n ∈ . Intuitivt kan man förvänta sig att ha E[ S N ] > 0 i det här exemplet, eftersom summeringen stannar direkt efter en etta, vilket tydligen skapar en positiv bias. Walds ekvation visar dock att denna intuition är missvisande.
Motexempel
Ett motexempel som illustrerar nödvändigheten av antagande ( 2 )
1/2 en { sekvens ( X n ) n ∈ av iid (oberoende och identiskt fördelade slumpvariabler) slumpvariabler, med vart och ett av de två värdena 0 och 1 med sannolikhet (faktiskt endast X 1 behövs i det följande). Definiera N = 1 – X 1 . Då S N identiskt lika med noll, därav E[ S N ] = 0 , men E[ X 1 ] = 1 / 2 och E[ N ] = 1 / 2 och därför håller inte Walds ekvation. Faktum är att antagandena ( 1 ), ( 3 ), ( 4 ) och ( 5 ) är uppfyllda, men ekvationen i antagande ( 2 ) gäller för alla n ∈ förutom n = 1 .
Ett motexempel som illustrerar nödvändigheten av antagande ( 3 )
Mycket likt det andra exemplet ovan, låt ( X n ) n ∈ vara en sekvens av oberoende, symmetriska slumpvariabler, där X n tar vart och ett av värdena 2 n och –2 n med sannolikhet 1/2 _ _ . Låt N vara den första n ∈ så att X n = 2 n . Sedan, som ovan, N ändlig förväntan, därför gäller antagande ( 5 ). Eftersom E[ X n ] = 0 för alla n ∈ gäller antaganden ( 1 ) och ( 4 ). Men eftersom S N = 1 nästan säkert, kan Walds ekvation inte hålla.
Eftersom N är en stopptid med avseende på filtreringen som genereras av ( X n ) n ∈ antagande ( 2 ), se ovan. Därför kan endast antagandet ( 3 ) misslyckas, och faktiskt, sedan
och därför P( N ≥ n ) = 1/2 n –1 för varje n ∈ , det följer att
Ett bevis med den valfria stoppsatsen
Antag ( 1 ), ( 5 ), ( 8 ), ( 10 ), ( 11 ) och ( 12 ). Använd antagande ( 1 ), definiera sekvensen av slumpvariabler
Antagande ( 11 ) innebär att den villkorade förväntan av X n givet F n –1 är lika med E[ X n ] nästan säkert för varje n ∈ , därav ( M n ) n ∈ 0 är en martingal med avseende på filtreringen ( F n ) n ∈ 0 genom antagande ( 12 ). Antaganden ( 5 ), ( 8 ) och ( 10 ) säkerställer att vi kan tillämpa den valfria stoppsatsen , därför är M N = S N – T N integrerbar och
-
()
På grund av antagande ( 8 ),
och på grund av antagandet ( 5 ) är denna övre gräns integrerbar. Därför kan vi lägga till förväntan på T N på båda sidor av ekvation ( 13 ) och erhålla genom linjäritet
Anmärkning: Observera att detta bevis inte täcker ovanstående exempel med beroende termer .
Allmänt bevis
Detta bevis använder endast Lebesgues monotona och dominerade konvergenssatser . Vi bevisar påståendet enligt ovan i tre steg.
Steg 1: Integrerbarheten av den slumpmässiga summan S N
Vi visar först att den slumpmässiga summan S N är integrerbar. Definiera delsummorna
-
()
Eftersom N tar sina värden i 0 och eftersom 0 S = 0 , följer det att
Lebesgues monotona konvergenssats antyder det
Genom triangelojämlikheten,
Genom att använda denna övre uppskattning och ändra summeringsordningen (vilket är tillåtet eftersom alla termer är icke-negativa) får vi
-
()
där den andra olikheten följer med den monotona konvergenssatsen. Genom antagande ( 3 ) konvergerar den oändliga sekvensen på höger sida av ( 15 ), så S N är integrerbar.
Steg 2: Integrerbarheten av den slumpmässiga summan T N
Vi visar nu att den slumpmässiga summan T N är integrerbar. Definiera delsummorna
-
()
av reella tal. Eftersom N tar sina värden i 0 och eftersom 0 T = 0 , följer det att
Liksom i steg 1 innebär Lebesgues monotona konvergenssats det
Genom triangelojämlikheten,
Genom att använda denna övre uppskattning och ändra summeringsordningen (vilket är tillåtet eftersom alla termer är icke-negativa) får vi
-
()
Genom antagande ( 2 ),
Ersätter detta med ( 17 ) avkastning
som är ändlig genom antagande ( 3 ), därför är T N integrerbar.
Steg 3: Bevis på identiteten
För att bevisa Walds ekvation går vi i huvudsak igenom samma steg igen utan absolutvärdet, och använder oss av integrerbarheten av de slumpmässiga summorna S N och T N för att visa att de har samma förväntningar.
Använder den dominerade konvergenssatsen med dominerande stokastisk variabel | S N | och definitionen av delsumman Si som ges i ( 14 ), det följer att
På grund av den absoluta konvergensen som bevisats i ( 15 ) ovan med antagande ( 3 ), kan vi ordna om summeringen och erhålla att
där vi använde antagande ( 1 ) och den dominerade konvergenssatsen med dominerande stokastisk variabel | Xn _ | för den andra jämlikheten. På grund av antagande ( 2 ) och σ-additiviteten för sannolikhetsmåttet,
Att ersätta detta resultat i den föregående ekvationen, arrangera om summeringen (vilket är tillåtet på grund av absolut konvergens, se ( 15 ) ovan), med hjälp av förväntans linjäritet och definitionen av den partiella summan Ti av förväntningarna som ges i ( 16 ),
Genom att använda dominerad konvergens igen med dominerande stokastisk variabel | T N | ,
Om antagandena ( 4 ) och ( 5 ) är uppfyllda, kan förväntans linjäritet,
Detta fullbordar beviset.
Ytterligare generaliseringar
- Walds ekvation kan överföras till R d -värderade slumpvariabler ( X n ) n ∈ genom att tillämpa den endimensionella versionen på varje komponent.
- Om ( X n ) n ∈ är Bochner-integrerbara slumpvariabler som tar värden i ett Banach-utrymme , så kan det allmänna beviset ovan justeras därefter.
Se även
Anteckningar
- Wald, Abraham (september 1944). "På kumulativa summor av slumpvariabler" . The Annals of Mathematical Statistics . 15 (3): 283–296. doi : 10.1214/aoms/1177731235 . JSTOR 2236250 . MR 0010927 . Zbl 0063.08122 .
- Wald, Abraham (1945). "Några generaliseringar av teorin om kumulativa summor av slumpvariabler" . The Annals of Mathematical Statistics . 16 (3): 287–293. doi : 10.1214/aoms/1177731092 . JSTOR 2235707 . MR 0013852 . Zbl 0063.08129 .
- Blackwell, D.; Girshick, MA (1946). "Om funktioner av sekvenser av oberoende slumpvektorer med tillämpningar på problemet med "slumpmässig promenad" i k dimensioner" . Ann. Matematik. Statistik . 17 (3): 310–317. doi : 10.1214/aoms/1177730943 .
- Chan, Hock Peng; Fuh, Cheng-Der; Hu, Inchi (2006). "Mångarmad banditproblem med företrädesrelationer". Tidsserier och relaterade ämnen . Institutet för matematisk statistik Föreläsningsanteckningar - Monografiserie. Vol. 52. s. 223–235. arXiv : math/0702819 . doi : 10.1214/074921706000001067 . ISBN 978-0-940600-68-3 . S2CID 18813099 .
externa länkar
- "Wald identity" , Encyclopedia of Mathematics , EMS Press , 2001 [1994]