Instansbaserat lärande
Inom maskininlärning är instansbaserad inlärning (ibland kallad minnesbaserad inlärning ) en familj av inlärningsalgoritmer som, istället för att utföra explicit generalisering, jämför nya probleminstanser med instanser som ses under träning, som har lagrats i minnet . Eftersom beräkningen skjuts upp tills en ny instans observeras, kallas dessa algoritmer ibland för "lata".
Det kallas instansbaserat eftersom det konstruerar hypoteser direkt från själva träningsinstanserna. Detta innebär att hypoteskomplexiteten kan växa med data: i värsta fall är en hypotes en lista med n träningsobjekt och beräkningskomplexiteten för att klassificera en enskild ny instans är O ( n ). En fördel som instansbaserad inlärning har framför andra metoder för maskininlärning är dess förmåga att anpassa sin modell till tidigare osynliga data. Instansbaserade elever kan helt enkelt lagra en ny instans eller slänga en gammal instans.
Exempel på instansbaserade inlärningsalgoritmer är k -nearest neighbors-algoritmen , kärnmaskiner och RBF-nätverk . Dessa lagrar (en delmängd av) sin träningsuppsättning; när de förutsäger ett värde/klass för en ny instans, beräknar de avstånd eller likheter mellan denna instans och träningsinstanserna för att fatta ett beslut.
För att bekämpa minneskomplexiteten med att lagra alla träningstillfällen, såväl som risken att överanpassa buller i träningssetet, har algoritmer för minskning av instanser föreslagits.