Bayesiansk metod för multivariat linjär regression
Inom statistik är Bayesiansk multivariat linjär regression en Bayesiansk metod för multivariat linjär regression, dvs linjär regression där det förutsagda utfallet är en vektor av korrelerade slumpvariabler snarare än en enda skalär slumpvariabel. En mer allmän behandling av detta tillvägagångssätt finns i artikeln MMSE estimator .
Detaljer
Betrakta ett regressionsproblem där den beroende variabeln som ska förutsägas inte är en enda skalär med reellt värde utan en m -längdsvektor av korrelerade reella tal. Liksom i standardregressionsuppsättningen finns det n observationer, där varje observation i består av k −1 förklarande variabler , grupperade i en vektor med längden k (där en dummy variabel med värdet 1 har lagts till för att möjliggöra en interceptkoefficient). Detta kan ses som en uppsättning m relaterade regressionsproblem för varje observation i :
där uppsättningen fel
korrelerade. På motsvarande sätt kan det ses som ett enskilt regressionsproblem där resultatet är en
radvektor och regressionskoefficientvektorerna staplas nästa till varandra enligt följande:
Koefficientmatrisen B är en matris där koefficientvektorerna för varje regressionsproblem staplas horisontellt:
Brusvektorn för varje observation i är gemensamt normal, så att resultaten för en given observation är korrelerade:
Vi kan skriva hela regressionsproblemet i matrisform som:
där
Y och
E är
matriser. Designmatrisen
X är en
matris med observationerna staplade vertikalt, som i standardinställningen för
linjär regression
:
Den klassiska, frekventistiska linjära minsta kvadraten -lösningen är att helt enkelt uppskatta matrisen av regressionskoefficienter med Moore-Penrose- pseudoinversen :
För att få den Bayesianska lösningen måste vi specificera den villkorade sannolikheten och sedan hitta det lämpliga konjugatet före. Som med det univariata fallet med linjär Bayesiansk regression kommer vi att finna att vi kan specificera ett naturligt villkorligt konjugat före (som är skalberoende).
Låt oss skriva vår villkorade sannolikhet som
att skriva felet
i termer av
och
ger
Vi söker ett naturligt konjugat före—en leddensitet som är av samma funktionella form som sannolikheten. Eftersom sannolikheten är kvadratisk i , skriver vi om sannolikheten så att den är normal i (avvikelsen från klassisk provuppskattning).
Genom att använda samma teknik som med Bayesiansk linjär regression , bryter vi ner den exponentiella termen med hjälp av en matrisform av kvadratsummans teknik. Här kommer vi dock också att behöva använda Matrix Differential Calculus ( Kronecker-produkt och vektoriseringstransformationer ).
Låt oss först tillämpa kvadratsumma för att få ett nytt uttryck för sannolikheten:
Vi skulle vilja ta fram en villkorad blankett för priorerna:
där
är en
invers Wishart-fördelning och
är någon form av
normalfördelning i matrisen
. Detta åstadkoms med hjälp av
vektoriseringstransformationen , som omvandlar sannolikheten från en funktion av matriserna
till en funktion av vektorerna
.
Skriva
Låta
där
betecknar
Kronecker-produkten av matriserna
A och
B , en generalisering av den
yttre produkten som multiplicerar en
matris med en
-matris för att generera en
-matris, bestående av varje kombination av produkter av element från de två matriserna.
Sedan
vilket kommer att leda till en sannolikhet som är normal i
.
Med sannolikheten i en mer lätthanterlig form kan vi nu hitta ett naturligt (villkorligt) konjugat före.
Konjugera tidigare distribution
Det naturliga konjugatet före användning av den vektoriserade variabeln har formen:
var
och
Posterior distribution
Med hjälp av ovanstående förutsättning och sannolikhet kan den bakre fördelningen uttryckas som:
där
. Termerna som involverar
kan grupperas (med
) med:
med
Detta gör att vi nu kan skriva baksidan i en mer användbar form:
Detta tar formen av en omvänd Wishart-fördelning gånger en Matrix-normalfördelning :
och
Parametrarna för denna posterior ges av:
Se även