Följande representationssats och dess bevis beror på Schölkopf , Herbrich och Smola: [ citat behövs ]
Sats: Betrakta en positiv-definitiv kärna på en icke -tom set med en motsvarande reproducerande kärna Hilbert-mellanslag . Låt det vara givet
ett träningsprov ,
en strikt ökande funktion med verkligt värde och
en godtycklig felfunktion ,
som tillsammans definierar följande regulariserade empiriska riskfunktioner på :
Sedan en minimering av den empiriska risken
medger en representation av formen:
där för alla .
Bevis: Definiera en mappning
(så att i sig är en karta ). Eftersom är en reproducerande kärna, alltså
där är den inre produkten på .
Givet vilken som helst kan man använda ortogonal projektion för att dekomponera alla till en summa av två funktioner, en som ligger i , och den andra som ligger i det ortogonala komplementet:
där för alla .
Ovanstående ortogonala sönderdelning och den reproducerande egenskapen visar tillsammans att applicering av på valfri träningspunkt ger
som vi observerar är oberoende av . Följaktligen är värdet på felfunktionen i (*) likaså oberoende av . För den andra termen (regulariseringstermen), eftersom är ortogonal mot och är strikt monotont, vi har
påverkar inte inställningen Följaktligen måste alla minimerare i (*) ha , dvs den måste ha formen
vilket är det önskade resultatet.
Generaliseringar
Den ovan angivna satsen är ett särskilt exempel på en familj av resultat som kollektivt benämns "representerande teorem"; här beskriver vi flera sådana.
Det första uttalandet av en representationssats var på grund av Kimeldorf och Wahba för det speciella fallet där
för . Schölkopf, Herbrich och Smola generaliserade detta resultat genom att slappna av antagandet om kvadratförlustkostnaden och tillåta regularizern att vara vilken som helst strikt monotont ökande funktion g ( ⋅ ) {\ i Hilberts rymdnorm.
Det är möjligt att generalisera ytterligare genom att utöka den regulariserade empiriska riskfunktionen genom tillägg av ostraffade offsettermer. Till exempel överväger även Schölkopf, Herbrich och Smola minimeringen
dvs vi betraktar funktioner av formen , där och är en ostraffad funktion som ligger inom spannet av en ändlig uppsättning verkliga funktioner . Under antagandet att matrisen har rang , de visar att minimeraren i tillåter en representation av formuläret
där och alla är unikt bestämda .
Förhållandena under vilka en representationssats existerar undersöktes av Argyriou, Micchelli och Pontil, som bevisade följande:
Sats: Låt vara en icke-tom mängd, en positiv-definitiv kärna med verkligt värde på med motsvarande reproducerande kärna Hilbert space , och låt vara en differentierbar regulariseringsfunktion. Sedan ges ett träningsprov och en godtycklig felfunktion minimerare
av den regulariserade empiriska risken medger en representation av formen
där för alla , om och endast om det finns en icke-minskande funktion för vilken
Detta resultat ger i praktiken ett nödvändigt och tillräckligt villkor på en differentierbar regularizer under vilken motsvarande regulariserade empiriska riskminimering ( kommer att ha en representation sats. I synnerhet visar detta att en bred klass av reguljära riskminimering (mycket bredare än de som ursprungligen ansågs av Kimeldorf och Wahba) har representationssatser.
Ansökningar
Representantsatser är användbara ur praktisk synvinkel eftersom de dramatiskt förenklar det regulariserade empiriska riskminimeringsproblemet } . I de flesta intressanta applikationer kommer sökdomänen för minimeringen att vara ett oändligt dimensionellt delrum av , och därför tillåter inte sökningen (som skriven) implementering på datorer med ändligt minne och ändlig precision. Däremot reducerar representationen av som ges av en representationssats det ursprungliga (oändliga dimensionella) minimeringsproblemet till en sökning efter det optimala -dimensionell vektor av koefficienter ; kan sedan erhållas genom att använda vilken standardfunktionsminimeringsalgoritm som helst. Följaktligen ger representationssatser den teoretiska grunden för att reducera det allmänna maskininlärningsproblemet till algoritmer som faktiskt kan implementeras på datorer i praktiken.
Följande ger ett exempel på hur man löser minimeraren vars existens garanteras av representationssatsen. Denna metod fungerar för alla positiva, bestämda kärnor , och låter oss omvandla ett komplicerat (möjligen oändligt dimensionellt) optimeringsproblem till ett enkelt linjärt system som kan lösas numeriskt.
Antag att vi använder en minsta kvadraters felfunktion
och en regulariseringsfunktion för vissa . Genom representationssatsen, minimeraren
har formen
för vissa . Noterar att
vi ser att har formen
där och . Detta kan tas bort och förenklas till
Eftersom är positivt definitivt, finns det verkligen ett enda globalt minima för detta uttryck. Låt och notera att är konvex. Då , de globala minima, lösas genom att sätta . När vi minns att alla positiva bestämda matriser är inverterbara, ser vi det
Argyriou, Andreas; Micchelli, Charles A.; Pontil, Massimiliano (2009). "När finns det en Representer Theorem? Vector Versus Matrix Regularizers". Journal of Machine Learning Research . 10 (dec): 2507–2529.