Metropolis-justerad Langevin-algoritm

Inom beräkningsstatistik är den Metropolis-justerade Langevin-algoritmen (MALA) eller Langevin Monte Carlo (LMC) en Markov-kedja Monte Carlo (MCMC) metod för att erhålla slumpmässiga prov – sekvenser av slumpmässiga observationer – från en sannolikhetsfördelning för vilken direkt urval är svårt . Som namnet antyder använder MALA en kombination av två mekanismer för att generera tillstånden för en slumpmässig promenad som har målsannolikhetsfördelningen som ett invariant mått :

Informellt driver Langevin-dynamiken den slumpmässiga vandringen mot regioner med hög sannolikhet på samma sätt som ett gradientflöde, medan Metropolis–Hastings accept/reject-mekanism förbättrar blandnings- och konvergensegenskaperna för denna slumpmässiga promenad. MALA föreslogs ursprungligen av Julian Besag 1994, (även om metoden Smart Monte Carlo introducerades redan 1978) och dess egenskaper undersöktes i detalj av Gareth Roberts tillsammans med Richard Tweedie och Jeff Rosenthal . Många variationer och finesser har introducerats sedan dess, t.ex. den mångfaldiga varianten av Girolami och Calderhead (2011). Metoden är likvärdig med att använda Hamiltonian Monte Carlo (hybrid Monte Carlo) algoritm med endast ett enda diskret tidssteg.

Ytterligare detaljer

Låt beteckna en sannolikhetstäthetsfunktion på en från vilken man önskar dra en ensemble av oberoende och identiskt fördelade sampel. Vi betraktar den överdämpade Langevin Itô-diffusionen

drivs av tidsderivatan av en standard Brownsk rörelse . (Observera att en annan vanlig normalisering för denna diffusion är

som genererar samma dynamik.) I gränsen som , denna sannolikhetsfördelning av närmar sig en stationär fördelning, som också är invariant under diffusionen, vilket vi betecknar . Det visar sig att faktiskt .

Ungefärliga provvägar för Langevin-diffusionen kan genereras med många diskreta tidsmetoder. En av de enklaste är Euler–Maruyama-metoden med ett fast tidssteg . Vi sätter och definierar sedan rekursivt en approximation till den sanna lösningen av

där varje är ett oberoende drag från en multivariat normalfördelning med medelvärde 0 och kovariansmatris lika med identitetsmatris . Observera att är normalfördelade med medelvärde och kovarians lika med gånger identitetsmatrisen.

I motsats till Euler–Maruyama-metoden för att simulera Langevin-diffusionen, som alltid uppdaterar enligt uppdateringsregeln

MALA innehåller ett extra steg. Vi anser att ovanstående uppdateringsregel definierar ett förslag för ett nytt tillstånd,

Detta förslag accepteras eller förkastas enligt Metropolis-Hastings-algoritmen: set

var

är övergångssannolikhetstätheten från till (observera att i allmänhet ). Låt dras från den kontinuerliga enhetliga fördelningen på intervallet . Om så accepteras förslaget och vi sätter ; annars avvisas förslaget och vi sätter .

Den kombinerade dynamiken hos Langevin-diffusionen och Metropolis–Hastings-algoritmen uppfyller de detaljerade balansvillkoren som är nödvändiga för existensen av en unik, invariant, stationär fördelning . Jämfört med naiva Metropolis–Hastings har MALA fördelen att den vanligtvis föreslår flytt till regioner med högre som då är mer benägna att accepteras. Å andra sidan, när är starkt anisotropisk (dvs. den varierar mycket snabbare i vissa riktningar än andra), är det nödvändigt att ta för att korrekt fånga Langevin-dynamiken; användandet av en positiv-definitiv förkonditioneringsmatris kan bidra till att lindra detta problem, genom att generera förslag enl.

så att har medelvärdet och kovarians .

För begränsade klasser av målfördelningar kan den optimala acceptansgraden för denna algoritm visas vara ; om det upptäcks vara väsentligt annorlunda i praktiken, modifieras i enlighet med detta.

  1. ^ J. Besag (1994). "Kommentarer till "Representationer av kunskap i komplexa system" av U. Grenander och MI Miller". Journal of the Royal Statistical Society, Series B . 56 : 591-592.
  2. ^ Rosssky, PJ; Doll, JD; Friedman, HL (1978). "Brownian Dynamics som smart Monte Carlo-simulering". J. Chem. Fysik . 69 (10): 4628.
  3. ^   GO Roberts och RL Tweedie (1996). "Exponentiell konvergens av Langevin-distributioner och deras diskreta approximationer". Bernoulli . 2 (4): 341–363. doi : 10.2307/3318418 . JSTOR 3318418 .
  4. ^ a b G. O. Roberts och JS Rosenthal (1998). "Optimal skalning av diskreta approximationer till Langevin-diffusioner". Journal of the Royal Statistical Society, Series B . 60 (1): 255–268. doi : 10.1111/1467-9868.00123 .
  5. ^ a b   M. Girolami och B. Calderhead (2011). "Riemann mångfaldiga Langevin och Hamiltonian Monte Carlo metoder". Journal of the Royal Statistical Society, Series B . 73 (2): 123–214. CiteSeerX 10.1.1.190.580 . doi : 10.1111/j.1467-9868.2010.00765.x .