Exempel på Markov-kedjor
Den här artikeln innehåller exempel på Markov-kedjor och Markov-processer i aktion.
Alla exempel finns i det räknebara tillståndsutrymmet . För en översikt över Markov-kedjor i allmänt tillståndsutrymme, se Markov-kedjor på ett mätbart tillståndsutrymme .
Diskret tid
Brädspel spelas med tärningar
Ett spel med ormar och stegar eller något annat spel vars drag helt och hållet bestäms av tärningar är en Markov-kedja, verkligen en absorberande Markov-kedja . Detta till skillnad från kortspel som blackjack , där korten representerar ett "minne" av tidigare drag. För att se skillnaden, överväg sannolikheten för en viss händelse i spelet. I de ovan nämnda tärningsspelen är det enda som spelar roll brädets nuvarande tillstånd. Nästa tillstånd på brädet beror på det aktuella tillståndet och nästa tärningskast. Det beror inte på hur saker och ting kommit till sitt nuvarande tillstånd. I ett spel som blackjack kan en spelare få en fördel genom att komma ihåg vilka kort som redan har visats (och därmed vilka kort som inte längre finns i kortleken), så nästa tillstånd (eller hand) i spelet är inte oberoende av tidigare stater.
Random walk Markov-kedjor
En centruminriktad random walk
Överväg en slumpmässig promenad på tallinjen där positionen (kalla den x ) vid varje steg kan ändras med +1 (till höger) eller −1 (till vänster) med sannolikheter:
(där c är en konstant större än 0)
Till exempel, om konstanten, c , är lika med 1, ges sannolikheterna för en förflyttning till vänster vid positionerna x = −2,−1,0,1,2 av respektive. Slumpgången har en centrerande effekt som försvagas när c ökar.
Eftersom sannolikheterna endast beror på den aktuella positionen (värdet av x ) och inte på några tidigare positioner, uppfyller denna partiska slumpmässiga vandring definitionen av en Markov-kedja.
Spelande
Anta att du börjar med $10, och du satsar $1 på en oändlig, rättvis, myntkastning på obestämd tid, eller tills du förlorar alla dina pengar. Om representerar antalet dollar du har efter n kast, med , då sekvensen är en Markov-process. Om jag vet att du har $12 nu, skulle det förväntas att med jämna odds, kommer du antingen ha $11 eller $13 efter nästa kast. Denna gissning förbättras inte av den extra kunskapen att du började med $10, sedan gick upp till $11, ner till $10, upp till $11 och sedan till $12. Det faktum att gissningen inte förbättras av kunskapen om tidigare kast visar upp Markov-egenskapen , den minneslösa egenskapen hos en stokastisk process.
En enkel vädermodell
Sannolikheterna för väderförhållanden (modellerade som antingen regniga eller soliga), givet vädret föregående dag, kan representeras av en övergångsmatris :
Matrisen P representerar vädermodellen där en solig dag med 90 % sannolikhet följs av en annan solig dag, och en regnig dag med 50 % sannolikt kommer att följas av en annan regnig dag. Kolumnerna kan märkas "soligt" och "regnigt", och raderna kan märkas i samma ordning.
( P ) ij är sannolikheten att, om en given dag är av typ i , kommer den att följas av en dag av typ j .
Lägg märke till att raderna i P summerar till 1: detta beror på att P är en stokastisk matris .
Förutsäga vädret
Vädret på dag 0 (idag) är känt för att vara soligt. Detta representeras av en initialtillståndsvektor där den "soliga" posten är 100% och den "regniga" posten är 0%:
Vädret på dag 1 (i morgon) kan förutsägas genom att multiplicera tillståndsvektorn från dag 0 med övergångsmatrisen:
Det finns alltså 90 % chans att dag 1 också blir solig.
Vädret på dag 2 (i övermorgon) kan förutsägas på samma sätt, från tillståndsvektorn som vi beräknade för dag 1:
eller
Allmänna regler för dag n är:
Stadig väderlek
I det här exemplet ändras förutsägelserna för vädret på mer avlägsna dagar mindre och mindre för varje efterföljande dag och tenderar mot en vektor för stabilt tillstånd . Denna vektor representerar sannolikheterna för soligt och regnigt väder alla dagar och är oberoende av det ursprungliga vädret.
Steady state vektorn definieras som:
men konvergerar till en strikt positiv vektor endast om P är en regelbunden övergångsmatris (det vill säga det finns minst en Pn med alla poster som inte är noll) .
Eftersom q är oberoende av initiala villkor måste den vara oförändrad när den transformeras av P . Detta gör den till en egenvektor (med egenvärde 1), och betyder att den kan härledas från P .
I lekmannatermer är steady-state vektorn vektorn som, när vi multiplicerar den med P , får vi tillbaka exakt samma vektor. För väderexemplet kan vi använda detta för att sätta upp en matrisekvation:
och eftersom de är en sannolikhetsvektor vet vi det
Att lösa detta par av samtidiga ekvationer ger steady state vektorn:
Sammanfattningsvis, på lång sikt är cirka 83,3 % av dagarna soliga. Det är viktigt att inse att inte alla Markov-processer har en steady state-vektor. I synnerhet måste övergångsmatrisen vara regelbunden . Annars kommer tillståndsvektorerna att svänga över tiden utan att konvergera.
Aktiemarknad
Ett tillståndsdiagram för ett enkelt exempel visas i figuren till höger, med hjälp av en riktad graf för att avbilda tillståndsövergångarna . Delstaterna representerar om en hypotetisk aktiemarknad uppvisar en tjurmarknad , björnmarknad eller stagnerande marknadstrend under en given vecka. Enligt figuren följs en tjurvecka av ytterligare en tjurvecka 90 % av tiden, en björnvecka 7,5 % av tiden och en stillastående vecka de andra 2,5 % av tiden. Märkning av tillståndsutrymmet {1 = tjur, 2 = björn, 3 = stillastående} är övergångsmatrisen för detta exempel
Fördelningen över tillstånd kan skrivas som en stokastisk radvektor x med relationen x ( n + 1) = x ( n ) P . Så om systemet vid tidpunkten n är i tillstånd x ( n ) , så är fördelningen tre tidsperioder senare, vid tidpunkten n +3 .
I synnerhet, om systemet vid tidpunkten n är i tillstånd 2 (björn), så är fördelningen vid tidpunkten n + 3
Med hjälp av övergångsmatrisen är det möjligt att till exempel beräkna den långsiktiga andelen veckor under vilka marknaden är stagnerande, eller det genomsnittliga antalet veckor det tar att gå från en stillastående till en tjurmarknad. Med hjälp av övergångssannolikheterna indikerar steady-state sannolikheterna att 62,5 % av veckorna kommer att vara på en tjurmarknad, 31,25 % av veckorna kommer att vara på en björnmarknad och 6,25 % av veckorna kommer att vara stillastående, eftersom:
En grundlig utveckling och många exempel finns i onlinemonografin Meyn & Tweedie 2005.
En finita-state-maskin kan användas som en representation av en Markov-kedja. Om man antar en sekvens av oberoende och identiskt fördelade insignaler (till exempel symboler från ett binärt alfabet som valts genom myntkast), om maskinen är i tillstånd y vid tidpunkten n , då är sannolikheten att den flyttar till tillstånd x vid tidpunkten n + 1 beror bara på det aktuella tillståndet.
Kontinuerlig tid
En födelse-död process
Om man poppar hundra kärnor popcorn i en ugn, varvid varje kärna poppar vid en oberoende exponentiellt fördelad tidpunkt, då skulle detta vara en kontinuerlig Markov-process . Om anger antalet kärnor som har dykt upp till tidpunkten t , kan problemet definieras som att hitta antalet kärnor som kommer in senare. Det enda man behöver veta är antalet kärnor som har poppat före tiden "t". Det är inte nödvändigt att veta när de dök upp, så att veta för tidigare gånger "t" är inte relevant.
Processen som beskrivs här är en approximation av en Poisson-punktsprocess – Poisson-processer är också Markov-processer.
Se även
-
^
Øksendal, BK (Bernt Karsten), 1945- (2003). Stokastiska differentialekvationer: en introduktion med tillämpningar (6:e upplagan). Berlin: Springer. ISBN 3540047581 . OCLC 52203046 .
{{ citera bok }}
: CS1 underhåll: flera namn: lista över författare ( länk ) - ^ Gagniuc, Paul A. (2017). Markov-kedjor: Från teori till implementering och experiment . USA, NJ: John Wiley & Sons. s. 1–235. ISBN 978-1-119-38755-8 .
- ^ a b c Van Kampen, NG (2007). Stokastiska processer i fysik och kemi . NL: North Holland Elsevier. s. 73 –95. ISBN 978-0-444-52965-7 .
- ^ a b c d Van Kampen, NG (2007). Stokastiska processer i fysik och kemi . NL: North Holland Elsevier. s. 73 –95. ISBN 978-0-444-52965-7 .
- ^ "Går stadigt (tillstånd) med Markov-processer" . Bloomington-lärare.
- ^ a b Gagniuc, Paul A. (2017). Markov-kedjor: från teori till implementering och experiment . Hoboken, NJ: John Wiley & Sons. s. 131–163. ISBN 9781119387572 . OCLC 982373850 .
- ^ SP Meyn och RL Tweedie, 2005. Markov-kedjor och stokastisk stabilitet arkiverade 2013-09-03 på Wayback Machine