I statistik är kärn Fisher diskriminantanalys (KFD) , även känd som generaliserad diskriminantanalys och kärndiskriminantanalys , en kärnbaserad version av linjär diskriminantanalys ( LDA). Den är uppkallad efter Ronald Fisher .
Linjär diskriminantanalys
Intuitivt är tanken med LDA att hitta en projektion där klassseparationen är maximerad. Givet två uppsättningar märkta data, och , kan vi beräkna medelvärdet för varje klass, och , som
där är antalet exempel på klass . Målet med linjär diskriminantanalys är att ge en stor separation av klassmedlen samtidigt som variansen i klassen hålls liten. Detta är formulerat som att maximera, med avseende på , följande förhållande:
där är kovariansmatrisen mellan klassen och är den totala kovariansmatrisen inom klassen:
Det maximala förhållandet ovan uppnås vid
som kan visas med Lagrange multiplikatormetoden (skiss av bevis):
Maximerar maximera
föremål för
Detta är i sin tur ekvivalent med att maximera , där är Lagrange-multiplikatorn.
måste derivatorna av med avseende på och vara noll. Att ta ger
vilket är trivialt tillfredsställt av och
Förlänger LDA
För att utöka LDA till icke-linjära mappningar kan data, angivna som punkterna mappas till ett nytt funktionsutrymme, via någon funktion I detta nya funktionsutrymme är funktionen som behöver maximeras
var
och
Observera vidare att . Att explicit beräkna mappningarna och sedan utföra LDA kan vara beräkningsmässigt dyrt och i många fall svåröverskådligt. Till exempel vara oändligt dimensionell. Således, snarare än att explicit mappa data till , kan data implicit bäddas in genom att skriva om algoritmen i termer av punktprodukter och använda kärnfunktioner där punktprodukten i det nya funktionsutrymmet ersätts av en kärna funktion, .
LDA kan omformuleras i termer av punktprodukter genom att först notera att kommer att ha en expansion av formen
Notera det då
var
Täljaren för kan sedan skrivas som:
På liknande sätt kan nämnaren skrivas som
med den komponenten av definierad som identitetsmatrisen , och matrisen med alla poster lika med . Denna identitet kan härledas genom att börja med uttrycket för och med expansionen av och definitionerna av och
Med dessa ekvationer för täljaren och nämnaren för ekvationen för skrivas om som
Då ger differentiering och inställning lika med noll
Eftersom endast riktningen för , och därmed riktningen för spelar roll, kan ovanstående lösas för som
Observera att i praktiken är vanligtvis singular och därför läggs en multipel av identiteten till den
Givet lösningen för ges projektionen av en ny datapunkt av
Flerklassig KFD
Utvidgningen till fall där det finns fler än två klasser är relativt okomplicerad. Låt vara antalet klasser. Sedan involverar flerklass-KFD att projicera data till ett -dimensionellt utrymme med användning av diskriminantfunktioner
Detta kan skrivas i matrisnotation
där är kolumnerna i . Vidare är kovariansmatrisen mellan klasser nu
där är medelvärdet av all data i det nya objektutrymmet. Kovariansmatrisen inom klassen är
Lösningen erhålls nu genom att maximera
Kärntricket kan återigen användas och målet med multi-class KFD blir
där och
M definieras som i avsnittet ovan och definieras som
kan sedan beräknas genom att hitta de ledande egenvektorerna för . Dessutom ges projektionen av en ny ingång,
där komponenten av ges av .
Klassificering med KFD
I både två-klass och multi-klass KFD kan klassetiketten för en ny ingång tilldelas som
där är det projicerade medelvärdet för klass och är en avståndsfunktion.
Ansökningar
Kärndiskriminantanalys har använts i en mängd olika tillämpningar. Dessa inkluderar:
-
Ansiktsigenkänning och detektering
- Handskriven sifferigenkänning
- Handavtrycksigenkänning
- Klassificering av maligna och benigna klustermikroförkalkningar
- Fröklassificering
- Sök efter Higgs Boson på CERN
Se även
externa länkar