Matrisregularisering
Inom området för statistisk inlärningsteori generaliserar matrisregularisering föreställningar om vektorregularisering till fall där objektet som ska läras är en matris . Syftet med regularisering är att upprätthålla förhållanden, till exempel gleshet eller jämnhet, som kan producera stabila prediktiva funktioner. Till exempel, i det vanligare vektorramverket, optimerar Tikhonov-regulariseringen över
för att hitta en vektor som är en stabil lösning på regressionsproblemet. När systemet beskrivs av en matris snarare än en vektor, kan detta problem skrivas som
där vektornormen som upprätthåller en regleringsstraff på har utökats till en matrisnorm på .
Matrisregularisering har tillämpningar inom matriskomplettering , multivariat regression och multi-task inlärning . Idéer om funktions- och gruppval kan också utökas till matriser, och dessa kan generaliseras till det icke-parametriska fallet med inlärning av flera kärnor .
Grundläggande definition
Betrakta en matris som kan läras från en uppsättning exempel, , där går från till , och går från till . Låt varje inmatningsmatris vara och låt ha storleken . En allmän modell för utgången kan ställas upp som
där den inre produkten är den inre produkten från Frobenius . För olika applikationer kommer matriserna att ha olika former, men för var och en av dessa kan optimeringsproblemet att sluta sig till skrivas som
där definierar det empiriska felet för en given , och är en matrisregulariseringsstraff. Funktionen väljs vanligtvis att vara konvex och väljs ofta för att framtvinga sparsitet (med -normer) och/eller jämnhet (med hjälp av -normer). Slutligen i utrymmet för matriserna med Frobenius inre produkt .
Allmänna tillämpningar
Matriskomplettering
I problemet med matriskomplettering tar matrisen formen
där och är den kanoniska grunden i och . I det här fallet är rollen för Frobenius inre produkt att välja individuella element med matrisen . Sålunda är utgången ett urval av poster från matrisen .
Problemet med att rekonstruera från en liten uppsättning samplade poster är endast möjligt under vissa restriktioner på matrisen, och dessa restriktioner kan upprätthållas av en regulariseringsfunktion. Till exempel kan det antas att är låg rang, i vilket fall regulariseringsstraffet kan ha formen av en kärnkraftsnorm.
där , med från till , är singularvärdena för .
Multivariat regression
Modeller som används i multivariat regression parametriseras av en matris av koefficienter. I Frobenius inre produkt ovan är varje matris
så att utmatningen av den inre produkten är punktprodukten av en rad av inmatningen med en kolumn i koefficientmatrisen. Den välbekanta formen av sådana modeller är
Många av vektornormerna som används i enkel variabel regression kan utvidgas till det multivariata fallet. Ett exempel är den kvadratiska Frobenius-normen, som kan ses som en -norm som agerar antingen ingångsvis eller på matrisens singularvärden:
I det multivariata fallet är effekten av att reglera med Frobenius-normen densamma som vektorfallet; mycket komplexa modeller kommer att ha större normer och kommer därför att straffas mer.
Multi-task lärande
Inställningen för multi-task inlärning är nästan densamma som inställningen för multivariat regression. Den primära skillnaden är att indatavariablerna också indexeras efter uppgift (kolumner av . Representationen med Frobenius inre produkt är därefter
Rollen för matrisregularisering i den här miljön kan vara densamma som vid multivariat regression, men matrisnormer kan också användas för att koppla inlärningsproblem över uppgifter. Observera i synnerhet det för optimeringsproblemet
lösningarna som motsvarar varje kolumn i är frikopplade. Det vill säga att samma lösning kan hittas genom att lösa det gemensamma problemet, eller genom att lösa ett isolerat regressionsproblem för varje kolumn. Problemen kan kopplas genom att lägga till en ytterligare regleringsstraff på samvariationen av lösningar
där modellerar förhållandet mellan uppgifter. Detta schema kan användas för att både framtvinga likheter mellan lösningar över uppgifter och för att lära sig den specifika strukturen för uppgiftslikhet genom att växla mellan optimeringar av och . När förhållandet mellan uppgifterna är känt för att ligga på en graf, Laplacian-matris användas för att koppla ihop inlärningsproblemen.
Spektral regularisering
Regularisering med spektralfiltrering har använts för att hitta stabila lösningar på problem som de som diskuterats ovan genom att ta itu med illa ställda matrisinversioner (se till exempel Filterfunktion för Tikhonov-regularisering ). I många fall verkar regulariseringsfunktionen på ingången (eller kärnan) för att säkerställa en begränsad invers genom att eliminera små singularvärden, men det kan också vara användbart att ha spektrala normer som verkar på matrisen som ska läras in.
Det finns ett antal matrisnormer som verkar på matrisens singularvärden. Ofta använda exempel inkluderar Schatten p-normer , med p = 1 eller 2. Till exempel kan matrisregularisering med en Schatten 1-norm, även kallad nukleär norm, användas för att framtvinga sparsitet i en matris spektrum. Detta har använts i samband med matriskomplettering när matrisen i fråga tros ha en begränsad rangordning. I det här fallet blir optimeringsproblemet:
- med förbehåll för
Spektral Regularization används också för att framtvinga en reducerad rangkoefficientmatris vid multivariat regression. I den här inställningen kan en reducerad rangkoefficientmatris hittas genom att bara behålla de n översta singularvärdena, men detta kan utökas för att behålla valfri reducerad uppsättning singularvärden och vektorer.
Strukturerad gleshet
Sparsam optimering har blivit i fokus för mycket forskningsintresse som ett sätt att hitta lösningar som är beroende av ett litet antal variabler (se t.ex. Lassometoden ) . I princip kan entry-wise sparsity upprätthållas genom att straffa den entry-wise -normen för matrisen, men ℓ {\ -normen är inte konvex. I praktiken kan detta implementeras genom konvex relaxation till -normen. Medan ingångsmässig regularisering med en -norm kommer att hitta lösningar med ett litet antal element som inte är noll, tillämpar en -norm på olika grupper av variabler kan tvinga fram struktur i sparsamheten av lösningar.
Det enklaste exemplet på strukturerad sparsitet använder normen med och :
Till exempel, normen används i multi-task-inlärning för att gruppera funktioner över uppgifter, så att alla element i en given rad i koefficientmatrisen kan tvingas fram till noll som grupp. Grupperingseffekten uppnås genom att ta -normen för varje rad, och sedan ta den totala straffavgiften till summan av dessa radvisa normer. Denna regularisering resulterar i rader som tenderar att vara alla nollor, eller täta. Samma typ av regularisering kan användas för att framtvinga sparsitet kolumnvis genom att ta -normerna för varje kolumn.
Mer generellt kan normen tillämpas på godtyckliga grupper av variabler:
där indexet är över grupper av variabler, och indikerar kardinalitet för grupp .
Algoritmer för att lösa dessa gruppgleshetsproblem utökar de mer välkända lasso- och grupplassometoderna genom att tillåta överlappande grupper, till exempel, och har implementerats via matchande strävan : och proximala gradientmetoder . Genom att skriva den proximala gradienten med avseende på en given koefficient, , kan man se att denna norm tvingar fram en gruppvis mjuk tröskel
där indikatorfunktionen för gruppnormer .
Med normer är det alltså enkelt att framtvinga struktur i glesheten av en matris, antingen radvis, kolumnvis eller i godtyckliga block. Genom att upprätthålla gruppnormer på block i multivariat- eller multi-task-regression, till exempel, är det möjligt att hitta grupper av ingångs- och utdatavariabler, så att definierade delmängder av utdatavariabler (kolumner i matrisen Y {\displaystyle Y} ) kommer på på samma glesa uppsättning indatavariabler.
Val av flera kärnor
Idéerna med strukturerad sparsitet och funktionsval kan utvidgas till det icke-parametriska fallet med multipel kärninlärning . Detta kan vara användbart när det finns flera typer av indata (till exempel färg och textur) med olika lämpliga kärnor för var och en, eller när den lämpliga kärnan är okänd. Om det till exempel finns två kärnor med funktionskartor och som ligger i motsvarande reproducerande kärna Hilbert-mellanslag , sedan kan ett större mellanslag, , skapas som summan av två mellanslag:
anta linjärt oberoende i och . I detta fall -normen återigen summan av normer:
Genom att välja en matrisregulariseringsfunktion som denna typ av norm är det alltså möjligt att hitta en lösning som är sparsam när det gäller vilka kärnor som används, men tät i koefficienten för varje använd kärna. Multipelkärninlärning kan också användas som en form av icke-linjär variabelselektion, eller som en modellaggregationsteknik (t.ex. genom att ta summan av kvadratiska normer och slappna av sparsitetsbegränsningar). Till exempel kan varje kärna anses vara den Gaussiska kärnan med olika bredd.