Neural tangentkärna

I studien av artificiella neurala nätverk (ANN) är den neurala tangentkärnan ( NTK ) en kärna som beskriver utvecklingen av djupa artificiella neurala nätverk under deras träning genom gradientnedstigning . Det tillåter ANN att studeras med hjälp av teoretiska verktyg från kärnmetoder .

För de flesta vanliga neurala nätverksarkitekturer blir NTK konstant inom gränsen för stor lagerbredd. Detta gör det möjligt att göra enkla i sluten form om neurala nätverksförutsägelser, träningsdynamik, generalisering och förlustytor. Till exempel garanterar det att tillräckligt breda ANN:er konvergerar till ett globalt minimum när de tränas för att minimera en empirisk förlust. NTK för nätverk med stor bredd är också relaterad till flera andra stora breddgränser för neurala nätverk .

NTK introducerades 2018 av Arthur Jacot, Franck Gabriel och Clément Hongler. Det var implicit i samtida arbete med överparameterisering.

Definition

Skalär utgångsväska

En ANN med skalär utdata består av en familj av funktioner parametriserad av en vektor av parametrar .

NTK är en kärna definieras av

På språket för kärnmetoder är NTK kärnan som är associerad med funktionskartan .

Vektor utgång fall

En ANN med vektorutgång av storleken består av en familj av funktioner en vektor av parametrar .

I detta fall, NTK en matrisvärderad kärna , med värden i utrymmet matriser, definierade av

Härledning

Vid optimering av parametrarna för en ANN för att minimera en empirisk förlust genom gradientnedstigning , styr NTK dynamiken för ANN-utgångsfunktionen under hela träningen.

Skalär utgångsväska

För en datauppsättning med skalära etiketter och en förlustfunktion tillhörande empirin förlust, definierad på funktioner ges av

När ANN tränas för att passa datauppsättningen (dvs minimera ) via kontinuerlig gradientnedstigning, parametrarna utvecklas genom den vanliga differentialekvationen :

Under träning följer ANN-utgångsfunktionen en utvecklingsdifferentialekvation som ges i termer av NTK:

Denna ekvation visar hur NTK driver dynamiken för i funktionsutrymmet under träning.

Vektor utgång fall

För en datauppsättning med vektoretiketter en förlustfunktion funktioner definieras av

Träningen av genom kontinuerlig gradientnedstigning ger följande utveckling i funktionsutrymme som drivs av NTK:

Tolkning

NTK representerar påverkan av förlustgradienten med avseende på exempel om utvecklingen av ANN-utgången genom ett steg med gradientnedstigning: i det skalära fallet, lyder detta

I synnerhet påverkar varje datapunkt utvecklingen av utdata för varje under hela träningen, på ett sätt som fångas av NTK .

Stor breddgräns

Nyligen genomförda teoretiska och empiriska arbeten inom djupinlärning har visat att prestandan hos ANN:er strikt förbättras när deras lagerbredder växer sig större. För olika ANN-arkitekturer ger NTK exakt insikt i utbildningen i denna stora bredd.

Breda fullt anslutna ANN:er har en deterministisk NTK, som förblir konstant under träningen

Betrakta en ANN med helt sammankopplade lager av bredderna att = är sammansättningen av en affin transformation med punktvis tillämpning av en olinjäritet , där parametriserar kartorna . Parametrarna initieras slumpmässigt, på ett oberoende, identiskt fördelat sätt.

När bredderna växer, påverkas NTK:s skala av den exakta parametriseringen av och av parameterinitieringen. Detta motiverar den så kallade NTK-parametriseringen . Denna parametrisering säkerställer att om parametrarna initieras som normala standardvariabler , har NTK en finit icke-trivial gräns. I gränsen för stor bredd konvergerar NTK till en deterministisk (icke-slumpmässig) gräns som förblir konstant i tiden.

NTK ges uttryckligen av , där bestäms av uppsättningen rekursiva ekvationer:

där anger kärnan definierad i termer av Gauss förväntan :

I denna formel är kärnorna ANN:s så kallade aktiveringskärnor.

Breda helt uppkopplade nätverk är linjära i sina parametrar under hela utbildningen

NTK beskriver utvecklingen av neurala nätverk under gradientnedstigning i funktionsrymden. Dual till detta perspektiv är en förståelse för hur neurala nätverk utvecklas i parameterrymden, eftersom NTK definieras i termer av gradienten för ANN:s utsignaler med avseende på dess parametrar. I den oändliga breddgränsen blir kopplingen mellan dessa två perspektiv särskilt intressant. NTK som förblir konstant under träning på stora bredder sker samtidigt med att ANN är väl beskrivet under träningen genom dess första ordningens Taylor-expansion kring dess parametrar vid initialisering:

Andra arkitekturer

NTK kan studeras för olika ANN-arkitekturer , i synnerhet konvolutionella neurala nätverk (CNN), återkommande neurala nätverk (RNN) och transformatorer . I sådana inställningar motsvarar den stora breddgränsen att låta antalet parametrar växa, samtidigt som antalet lager hålls fast: för CNN :er innebär detta att låta antalet kanaler växa.

Ansökningar

Konvergens till ett globalt minimum

För en konvex förlust funktionell med ett globalt minimum , om NTK förblir -definitiv under , förlusten av ANN displaystyle . Denna positiva definititetsegenskap har visats i ett antal fall, vilket ger de första bevisen på att ANN med stor bredd konvergerar till globala minima under träning.

Kärnmetoder

NTK ger en rigorös koppling mellan den slutledning som utförs av ANN:er med oändlig bredd och den som utförs av kärnmetoder : när förlustfunktionen är den minsta kvadratiska förlusten, är slutledningen som utförs av en ANN i förväntan lika med kernel ridge-regression (med noll ås) med avseende på NTK . Detta tyder på att prestandan för stora ANN:er i NTK-parametriseringen kan replikeras med kärnmetoder för lämpligt valda kärnor.

Programvarubibliotek

Neural Tangents är ett gratis Python - bibliotek med öppen källkod som används för att beräkna och göra slutledningar med den oändliga bredden NTK och det neurala nätverket Gaussian process ( NNGP) som motsvarar olika vanliga ANN-arkitekturer.

externa länkar