Manifold regularisering
Inom maskininlärning är Manifold-regularisering en teknik för att använda formen på en datauppsättning för att begränsa de funktioner som ska läras in på den datauppsättningen . I många maskininlärningsproblem täcker inte data som ska läras in hela inmatningsutrymmet. Till exempel kanske ett ansiktsigenkänningssystem inte behöver klassificera någon möjlig bild, utan bara den delmängd av bilder som innehåller ansikten. Tekniken för mångfaldig inlärning antar att den relevanta delmängden av data kommer från en mångfaldig , en matematisk struktur med användbara egenskaper. Tekniken förutsätter också att funktionen som ska läras är smidig : data med olika etiketter är sannolikt inte nära varandra, och därför bör märkningsfunktionen inte ändras snabbt i områden där det sannolikt finns många datapunkter. På grund av detta antagande kan en mångfaldig regulariseringsalgoritm använda omärkta data för att informera om var den inlärda funktionen tillåts ändras snabbt och var den inte är det, med hjälp av en förlängning av tekniken för Tikhonov- regularisering . Flerfaldiga regulariseringsalgoritmer kan utöka övervakade inlärningsalgoritmer i semi-övervakad inlärning och transduktiv inlärning , där omärkta data finns tillgängliga. Tekniken har använts för tillämpningar inklusive medicinsk avbildning, geografisk avbildning och objektigenkänning.
Manifold regularizer
Motivering
Manifold regularisering är en typ av regularisering , en familj av tekniker som minskar överanpassning och säkerställer att ett problem är väl ställt genom att straffa komplexa lösningar. I synnerhet utökar mångfaldig regularisering tekniken för Tikhonov-regularisering som tillämpas på Reproducering kernel Hilbert spaces ( RKHS). Under standard Tikhonov-regularisering på RKHS:er försöker en inlärningsalgoritm lära sig en funktion från ett hypotesrum av funktioner . Hypotesutrymmet är ett RKHS, vilket betyder att det är associerat med en kärna och därför har varje kandidatfunktion en norm , som representerar komplexiteten hos kandidatfunktionen i hypotesrummet. När algoritmen överväger en kandidatfunktion tar den hänsyn till dess norm för att straffa komplexa funktioner.
Formellt, givet en uppsättning märkta träningsdata med och en förlustfunktion , en inlärning algoritm som använder Tikhonov-regularisering kommer att försöka lösa uttrycket
där är en hyperparameter som styr hur mycket algoritmen kommer att föredra enklare funktioner framför funktioner som passar data bättre.
Manifold regularization lägger till en andra regulariseringsterm, den intrinsic regularizer , till den omgivande regularizern som används i standard Tikhonov-regularisering. Under det mångfaldiga antagandet i maskininlärning kommer data i fråga inte från hela inmatningsutrymmet utan istället från ett olinjärt grenrör . Geometrin för detta mångfald, det inneboende rummet, används för att bestämma regulariseringsnormen.
Laplacian norm
Det finns många möjliga val för den inneboende regularizern . Många naturliga val involverar gradienten på grenröret vilket kan ge ett mått på hur smidig en målfunktion är. En smidig funktion bör ändras långsamt där indata är täta; det vill säga gradienten ska vara liten där den marginella sannolikhetstätheten , sannolikhetstätheten för en slumpmässigt ritad datapunkt som visas vid { är stor. Detta ger ett lämpligt val för den inneboende regularizern:
I praktiken kan denna norm inte beräknas direkt eftersom marginalfördelningen är okänd, men den kan uppskattas från de tillhandahållna data.
Grafbaserad tillvägagångssätt för den laplaciska normen
När avstånden mellan ingångspunkterna tolkas som en graf, kan grafens Laplacian-matris hjälpa till att uppskatta marginalfördelningen. Antag att indata inkluderar märkta exempel (par av en ingång och en etikett ) och omärkta exempel (indata utan tillhörande etiketter ). Definiera som en matris av kantvikter för en graf, där är ett avståndsmått mellan datapunkterna och . Definiera som en diagonal matris med och för att vara den laplaciska matrisen . Sedan, när antalet datapunkter ökar, konvergerar till Laplace–Beltrami-operatorn , vilket är divergens av gradienten . Sedan, om är en vektor av värdena för vid data, :
När antalet datapunkter konvergerar denna empiriska definition av till definitionen när är känd.
Lösning av regulariseringsproblemet med grafbaserad metod
Genom att använda vikterna och för omgivande och inre regularizers, blir det slutliga uttrycket som ska lösas:
Som med andra kärnmetoder kan vara ett oändligt dimensionellt utrymme, så om regulariseringsuttrycket inte kan lösas explicit är det omöjligt att söka igenom hela utrymmet efter en lösning . Istället visar en representationssats att under vissa villkor på valet av normen , den optimala lösningen måste vara en linjär kombination av kärnan centrerad vid var och en av ingångspunkterna: för vissa vikter ,
Med hjälp av detta resultat är det möjligt att söka efter den optimala lösningen genom att söka i det finita dimensionella utrymmet som definieras av de möjliga valen av .
Funktionellt tillvägagångssätt för den laplaciska normen
Tanken bortom graph-Laplacian är att använda grannar för att uppskatta Laplacian. Denna metod är besläktad med lokala medelvärdesmetoder , som är kända för att skalas dåligt i högdimensionella problem. Faktum är att grafen Laplacian lider av dimensionalitetens förbannelse . Lyckligtvis är det möjligt att utnyttja förväntad jämnhet hos funktionen för att uppskatta tack vare mer avancerad funktionsanalys. Denna metod består i att uppskatta den laplaciska operatorn tack vare derivator av kärnavläsningen där betecknar de partiella derivatorna enligt den första variabelns j -te koordinat. Detta andra tillvägagångssätt för den laplaciska normen är att sätta i relation till meshfree-metoder , som kontrasterar med den finita skillnadsmetoden i PDE.
Ansökningar
Manifold regularisering kan utöka en mängd olika algoritmer som kan uttryckas med Tikhonov-regularisering, genom att välja en lämplig förlustfunktion och hypotesutrymme . Två vanliga exempel är familjerna av stödvektormaskiner och regulariserade minsta kvadratalgoritmer . (Regulariserade minsta kvadrater inkluderar åsregressionsalgoritmen; de relaterade algoritmerna för LASSO och elastisk nettoregularisering kan uttryckas som stödvektormaskiner.) De utökade versionerna av dessa algoritmer kallas Laplacian Regularized Least Squares (förkortat LapRLS) och Laplacian Support Vector Machines ( LapSVM), respektive.
Laplacian Regularized Least Squares (LapRLS)
Regulariserade minsta kvadrater (RLS) är en familj av regressionsalgoritmer : algoritmer som förutsäger ett värde för dess ingångar , med målet att den förutspådda värden bör vara nära de sanna etiketterna för data. I synnerhet är RLS utformad för att minimera medelkvadratfelet mellan de förutsagda värdena och de sanna etiketterna, med förbehåll för regularisering. Ridge-regression är en form av RLS; i allmänhet är RLS detsamma som åsregression i kombination med kärnmetoden . [ citat behövs ] Problemformuleringen för RLS är ett resultat av att välja förlustfunktionen i Tikhonov-regularisering som medelkvadratfelet:
Tack vare representationssatsen kan lösningen skrivas som en viktad summa av kärnan utvärderad vid datapunkterna:
och lösa för ger:
där är definierad som kärnmatrisen, med , och är vektorn för dataetiketter.
Att lägga till en laplacisk term för mångfaldig regularisering ger Laplacian RLS-påståendet:
Representantsatsen för mångfaldig regularisering ger återigen
och detta ger ett uttryck för vektorn . Låter vara kärnmatrisen enligt ovan, är vektorn för dataetiketter och är blockmatris :
med en lösning av
LapRLS har tillämpats på problem inklusive sensornätverk, medicinsk bildbehandling , objektdetektering, spektroskopi , dokumentklassificering , interaktioner mellan läkemedel och proteiner och komprimering av bilder och videor.
Laplacian Support Vector Machines (LapSVM)
Stödvektormaskiner (SVM) är en familj av algoritmer som ofta används för att klassificera data i två eller flera grupper, eller klasser . Intuitivt drar en SVM en gräns mellan klasser så att de närmast märkta exemplen till gränsen är så långt borta som möjligt. Detta kan uttryckas direkt som ett linjärt program , men det är också ekvivalent med Tikhonov-regularisering med gångjärnsförlustfunktionen, ( f :
Att lägga till den inneboende regulariseringstermen till detta uttryck ger LapSVM-problemformuleringen:
Återigen tillåter representationssatsen lösningen att uttryckas i termer av kärnan som utvärderas vid datapunkterna:
kan hittas genom att skriva problemet som ett linjärt program och lösa det dubbla problemet . Låt återigen vara kärnmatrisen och vara blockmatrisen kan lösningen visa sig vara
där är lösningen på det dubbla problemet
och definieras av
LapSVM har tillämpats på problem inklusive geografisk avbildning, medicinsk bildbehandling, ansiktsigenkänning, maskinunderhåll och hjärn-dator-gränssnitt .
Begränsningar
- Manifold regularisering förutsätter att data med olika etiketter sannolikt inte ligger nära varandra. Detta antagande är det som gör att tekniken kan hämta information från omärkta data, men det gäller bara vissa problemdomäner. Beroende på strukturen på data kan det vara nödvändigt att använda en annan semi-övervakad eller transduktiv inlärningsalgoritm.
- I vissa datamängder kan den inneboende normen för en funktion vara mycket nära den omgivande normen : till exempel, om data består av två klasser som ligger på vinkelräta linjer, kommer den inneboende normen att vara lika med den omgivande normen. I det här fallet har omärkta data ingen effekt på lösningen som lärts genom mångfaldig regularisering, även om data passar algoritmens antagande att separatorn ska vara jämn. Tillvägagångssätt relaterade till samträning har föreslagits för att ta itu med denna begränsning.
- Om det finns ett mycket stort antal omärkta exempel, blir kärnmatrisen mycket stor, och en mångfaldig regulariseringsalgoritm kan bli oöverkomligt långsam att beräkna. Onlinealgoritmer och sparsamma uppskattningar av grenröret kan hjälpa i det här fallet.
Se även
- Flerfaldigt lärande
- Flerfaldig hypotes
- Semi-övervakat lärande
- Transduktion (maskininlärning)
- Spektralgrafteori
- Återskapa kärnan Hilbert space
- Tikhonov regularisering
- Differentialgeometri
externa länkar
programvara
- ManifoldLearn -biblioteket och Primal LapSVM-biblioteket implementerar LapRLS och LapSVM i MATLAB .
- Dlib -biblioteket för C++ inkluderar en linjär mångfaldig regulariseringsfunktion.