Kernel Fisher diskriminant analys

I statistik är kärn Fisher diskriminantanalys (KFD) , även känd som generaliserad diskriminantanalys och kärndiskriminantanalys , en kärnbaserad version av linjär diskriminantanalys ( LDA). Den är uppkallad efter Ronald Fisher .

Linjär diskriminantanalys

Intuitivt är tanken med LDA att hitta en projektion där klassseparationen är maximerad. Givet två uppsättningar märkta data, och , kan vi beräkna medelvärdet för varje klass, och , som

där är antalet exempel på klass . Målet med linjär diskriminantanalys är att ge en stor separation av klassmedlen samtidigt som variansen i klassen hålls liten. Detta är formulerat som att maximera, med avseende på , följande förhållande:

där är kovariansmatrisen mellan klassen och är den totala kovariansmatrisen inom klassen:

Det maximala förhållandet ovan uppnås vid

som kan visas med Lagrange multiplikatormetoden (skiss av bevis):

Maximerar maximera

föremål för

Detta är i sin tur ekvivalent med att maximera , där är Lagrange-multiplikatorn.

måste derivatorna av med avseende på och vara noll. Att ta ger

vilket är trivialt tillfredsställt av och

Förlänger LDA

För att utöka LDA till icke-linjära mappningar kan data, angivna som punkterna mappas till ett nytt funktionsutrymme, via någon funktion I detta nya funktionsutrymme är funktionen som behöver maximeras

var

och

Observera vidare att . Att explicit beräkna mappningarna och sedan utföra LDA kan vara beräkningsmässigt dyrt och i många fall svåröverskådligt. Till exempel vara oändligt dimensionell. Således, snarare än att explicit mappa data till , kan data implicit bäddas in genom att skriva om algoritmen i termer av punktprodukter och använda kärnfunktioner där punktprodukten i det nya funktionsutrymmet ersätts av en kärna funktion, .

LDA kan omformuleras i termer av punktprodukter genom att först notera att kommer att ha en expansion av formen

Notera det då

var

Täljaren för kan sedan skrivas som:

På liknande sätt kan nämnaren skrivas som

med den komponenten av definierad som identitetsmatrisen , och matrisen med alla poster lika med . Denna identitet kan härledas genom att börja med uttrycket för och med expansionen av och definitionerna av och

Med dessa ekvationer för täljaren och nämnaren för ekvationen för skrivas om som

Då ger differentiering och inställning lika med noll

Eftersom endast riktningen för , och därmed riktningen för spelar roll, kan ovanstående lösas för som

Observera att i praktiken är vanligtvis singular och därför läggs en multipel av identiteten till den

Givet lösningen för ges projektionen av en ny datapunkt av

Flerklassig KFD

Utvidgningen till fall där det finns fler än två klasser är relativt okomplicerad. Låt vara antalet klasser. Sedan involverar flerklass-KFD att projicera data till ett -dimensionellt utrymme med användning av diskriminantfunktioner

Detta kan skrivas i matrisnotation

där är kolumnerna i . Vidare är kovariansmatrisen mellan klasser nu

där är medelvärdet av all data i det nya objektutrymmet. Kovariansmatrisen inom klassen är

Lösningen erhålls nu genom att maximera

Kärntricket kan återigen användas och målet med multi-class KFD blir

där och

M definieras som i avsnittet ovan och definieras som

kan sedan beräknas genom att hitta de ledande egenvektorerna för . Dessutom ges projektionen av en ny ingång,

där komponenten av ges av .

Klassificering med KFD

I både två-klass och multi-klass KFD kan klassetiketten för en ny ingång tilldelas som

där är det projicerade medelvärdet för klass och är en avståndsfunktion.

Ansökningar

Kärndiskriminantanalys har använts i en mängd olika tillämpningar. Dessa inkluderar:

  • Ansiktsigenkänning och detektering
  • Handskriven sifferigenkänning
  • Handavtrycksigenkänning
  • Klassificering av maligna och benigna klustermikroförkalkningar
  • Fröklassificering
  • Sök efter Higgs Boson på CERN

Se även

externa länkar