Att lära sig vektorkvantisering
Inom datavetenskap är inlärning av vektorkvantisering ( LVQ ) en prototypbaserad övervakad klassificeringsalgoritm . LVQ är den övervakade motsvarigheten till vektorkvantiseringssystem .
Översikt
LVQ kan förstås som ett specialfall av ett artificiellt neuralt nätverk , mer exakt, det tillämpar en vinnare-ta-allt Hebbian-inlärningsbaserad metod. Det är en föregångare till självorganiserande kartor (SOM) och relaterad till neuralgas , och till k-närmaste grannalgoritmen (k-NN). LVQ uppfanns av Teuvo Kohonen .
Ett LVQ-system representeras av prototyperna som definieras i har utrymme för observerade data. I vinnare-ta-allt träningsalgoritmer bestämmer man, för varje datapunkt, den prototyp som ligger närmast ingången enligt ett givet avståndsmått. Placeringen av denna så kallade vinnarprototyp anpassas då, dvs vinnaren flyttas närmare om den korrekt klassificerar datapunkten eller flyttas bort om den klassificerar datapunkten felaktigt.
En fördel med LVQ är att det skapar prototyper som är lätta att tolka för experter inom respektive applikationsdomän. LVQ-system kan appliceras på flerklassiga klassificeringsproblem på ett naturligt sätt.
En nyckelfråga i LVQ är valet av ett lämpligt mått på avstånd eller likhet för träning och klassificering. Nyligen har tekniker utvecklats som anpassar ett parametriserat avståndsmått under träningen av systemet, se t.ex. (Schneider, Biehl och Hammer, 2009) och referenser däri.
LVQ kan vara en källa till stor hjälp vid klassificering av textdokument. [ citat behövs ]
Algoritm
Nedan följer en informell beskrivning. Algoritmen består av tre grundläggande steg. Algoritmens indata är:
- hur många neuroner kommer systemet att ha (i det enklaste fallet är det lika med antalet klasser)
- vilken vikt varje neuron har för
- motsvarande etikett till varje neuron
- hur snabbt neuronerna lär sig
- och en ingångslista innehållande alla vektorer för vilka etiketterna redan är kända (träningsuppsättning).
Algoritmens flöde är:
-
För nästa inmatning (med etikett ) i hitta närmaste neuron , dvs mått ( euklidiskt , etc. ). -
Uppdatera . En bättre förklaring är att få närmare ingången , om och tillhör samma etikett och får dem längre isär om de inte gör det. om (närmare) eller om (längre ifrån varandra). - Medan det finns vektorer kvar i gå till steg 1, annars avsluta.
Obs: och är vektorer i funktionsrymden.
- ^ T. Kohonen. Självorganiserande kartor. Springer, Berlin, 1997.
- ^ T. Kohonen (1995), "Learning vector quantization", i MA Arbib (red.), The Handbook of Brain Theory and Neural Networks , Cambridge, MA: MIT Press, s. 537–540
-
^
P. Schneider, B. Hammer och M. Biehl (2009). "Adaptiva relevansmatriser vid inlärning av vektorkvantisering". Neural beräkning . 21 (10): 3532–3561. CiteSeerX 10.1.1.216.1183 . doi : 10.1162/neco.2009.10-08-892 . PMID 19635012 . S2CID 17306078 .
{{ citera journal }}
: CS1 underhåll: använder författarens parameter ( länk )
Vidare läsning
externa länkar
- lvq_pak officiell release (1996) av Kohonen och hans team