Galves–Löcherbach modell
Galves –Löcherbach-modellen (eller GL-modellen ) är en matematisk modell för ett nätverk av neuroner med inneboende stokasticitet .
I den mest allmänna definitionen består ett GL-nätverk av ett räknebart antal element (idealiserade neuroner ) som interagerar genom sporadiska nästan momentana diskreta händelser ( spikar eller avfyringar ). I varje ögonblick avfyrar varje neuron N oberoende, med en sannolikhet som beror på historien om alla neurons avfyringar sedan senaste gången N sköt senast. Således "glömmer" varje neuron alla tidigare toppar, inklusive sina egna, närhelst den avfyras. Den här egenskapen är en avgörande egenskap hos GL-modellen.
I specifika versioner av GL-modellen kan den tidigare nätverkspikhistorien sedan den senaste avfyringen av en neuron N sammanfattas av en intern variabel, potentialen för den neuronen, det vill säga en viktad summa av dessa toppar. Potentialen kan inkludera spikar av endast en ändlig delmängd av andra neuroner, och på så sätt modellerar godtyckliga synapstopologier. I synnerhet inkluderar GL-modellen som ett specialfall den allmänna läckande integrera-och-avfyra neuronmodellen.
Formell definition
GL-modellen har formaliserats på flera olika sätt. Notationerna nedan är lånade från flera av dessa källor.
GL-nätverksmodellen består av en räkningsbar uppsättning neuroner med någon uppsättning av index. Tillståndet definieras endast vid diskreta samplingstider, representerade av heltal, med något fast tidssteg . För enkelhetens skull, låt oss anta att dessa tider sträcker sig till oändligheten i båda riktningarna, vilket antyder att nätverket har funnits sedan evigt.
I GL-modellen antas alla neuroner utvecklas synkront och atomärt mellan successiva provtagningstider. I synnerhet, inom varje tidssteg kan varje neuron skjuta högst en gång. En boolesk variabel anger om neuronen avfyrades ( ) eller inte ( ) mellan samplingstiderna och .
Låt beteckna matrisen vars rader är historiken för alla neuronavfyrningar från tiden till tiden , det vill säga
och låt definieras på liknande sätt, men sträcker sig oändligt i det förflutna. Låt vara tiden före den senaste avfyringen av neuron före tiden , dvs.
Då säger den allmänna GL-modellen det
Dessutom är skjutningarna i samma tidssteg villkorligt oberoende, givet den tidigare nätverkshistoriken, med ovanstående sannolikheter. Det vill säga, för varje finit delmängd och alla konfigurationer har vi
Potentialbaserade varianter
I ett vanligt specialfall av GL-modellen, den del av den tidigare eldningshistoriken som är relevant för varje neuron vid varje samplingstidpunkt sammanfattas med en verklig- värderad intern tillståndsvariabel eller potential (som motsvarar membranpotentialen för en biologisk neuron), och är i grunden en viktad summa av tidigare spikindikatorer, sedan den senaste avfyring av neuron . Det är,
I denna formel är en numerisk vikt, som motsvarar den totala vikten eller styrkan av synapserna från axonet av neuron till dentriterna i neuron . Termen den externa ingången , representerar ytterligare ett bidrag till potentialen som kan komma mellan tiderna och från andra källor förutom avfyringar av andra neuroner. Faktorn är en historikviktfunktion som modulerar bidragen från skjutningar som hände hela steg efter den senaste skjutningen av neuron och hela steg före den aktuella tiden.
Sedan definierar man
där är en monotont icke-minskande funktion från in i intervallet .
Om den synaptiska vikten är negativ, gör varje avfyring av neuron att potentialen minskar. Detta är hur hämmande synapser approximeras i GL-modellen. Frånvaron av en synaps mellan dessa två neuroner modelleras genom att sätta .
Läckande integrera och brandvarianter
definieras potentialen Nämligen, när en neuron avfyras, återställs dess potential till noll. Fram till nästa avfyring ökar en spik från valfri neuron med den konstanta mängden . Förutom dessa bidrag, under varje tidssteg, avtar potentialen med en fast laddningsfaktor mot noll.
I denna variant kan utvecklingen av potentialen uttryckas med en återkommande formel
Eller mer kompakt,
Detta specialfall beror på att historikviktsfaktorn för den generella potentialbaserade varianten tas till . Den är väldigt lik den läckande integrera och brandmodellen .
Återställ potential
Om, mellan tiderna och , avfyras neuron (det vill säga ), inga andra neuroner utlöses ( för alla ), och det finns ingen extern input ( ), då kommer att vara . Denna egenvikt representerar därför återställningspotentialen som neuronen antar precis efter avfyring, bortsett från andra bidrag. Formeln för potentiell evolution kan därför också skrivas som
där är återställningspotentialen. Eller mer kompakt,
Vilande potential
Dessa formler antyder att potentialen avtar mot noll med tiden, när det inte finns några externa eller synaptiska ingångar och själva neuronen inte avfyrar. Under dessa förhållanden kommer membranpotentialen hos en biologisk neuron att tendera mot något negativt värde, vilo- eller baslinjepotentialen i storleksordningen -40 till −80 millivolt .
Emellertid existerar denna uppenbara diskrepans endast för att det är vanligt inom neurobiologi att mäta elektriska potentialer i förhållande till det extracellulära mediet . Den diskrepansen försvinner om man väljer baslinjepotentialen för neuronen som referens för potentiella mätningar. Eftersom potentialen inte har något inflytande utanför neuronen, kan dess nollnivå väljas oberoende för varje neuron
Variant med eldfast period
Vissa författare använder en något annorlunda refraktär variant av integrate-and-fire GL-neuronen, som ignorerar alla externa och synaptiska ingångar (förutom möjligen självsynapsen under tidssteg omedelbart efter sin egen eldning. Ekvationen för denna variant är
eller mer kompakt,
Glömska varianter
Ännu mer specifika undervarianter av integrera-och-avfyra GL-neuronen erhålls genom att ställa in laddningsfaktorn till noll. I den resulterande neuronmodellen beror potentialen (och därmed avfyrningssannolikheten) endast på insignalerna i det föregående tidssteget; alla tidigare avfyringar av nätverket, inklusive av samma neuron, ignoreras. Det vill säga att neuronen inte har något internt tillstånd och är i huvudsak ett (stokastiskt) funktionsblock.
Evolutionsekvationerna förenklas sedan till
för varianten utan eldfast steg, och
för varianten med eldfast steg.
I dessa undervarianter, även om de individuella neuronerna inte lagrar någon information från ett steg till nästa, kan nätverket som helhet fortfarande ha beständigt minne på grund av den implicita ettstegsfördröjningen mellan de synaptiska ingångarna och den resulterande avfyrningen av nervcell. Med andra ord, tillståndet för ett nätverk med neuroner är en lista med bitar , nämligen värdet av för varje neuron, som kan antas vara lagrad i sin axon i form av en resande depolarisationszon .
Författare::Mokone William kgtso
Historia
GL-modellen definierades 2013 av matematikerna Antonio Galves och Eva Löcherbach. Dess inspirationer inkluderade Frank Spitzers interagerande partikelsystem och Jorma Rissanens föreställning om stokastisk kedja med minne av variabel längd . Ett annat arbete som påverkade denna modell var Bruno Cessacs studie om den läckande integrera-och-eld-modellen, som själv var influerad av Hédi Soula. Galves och Löcherbach hänvisade till den process som Cessac beskrev som "en version i en finit dimension" av sin egen probabilistiska modell.
Tidigare integrera-och-avfyra modeller med stokastiska egenskaper förlitade sig på inklusive ett brus för att simulera stokasticitet. Galves–Löcherbach-modellen utmärker sig eftersom den är stokastisk till sin natur och inkluderar probabilistiska mått direkt i beräkningen av toppar. Det är också en modell som relativt enkelt kan tillämpas ur beräkningssynpunkt, med ett bra förhållande mellan kostnad och effektivitet. Det förblir en icke-markovisk modell, eftersom sannolikheten för en given neuronal spik beror på den ackumulerade aktiviteten i systemet sedan den senaste spiken.
Bidrag till modellen gjordes, med hänsyn till den hydrodynamiska gränsen för det interagerande neuronala systemet, det långväga beteendet och aspekter som hänför sig till processen i betydelsen att förutsäga och klassificera beteenden enligt en funktion av parametrar, och generaliseringen av modellen till den kontinuerliga tiden.
Galves–Löcherbach-modellen var en hörnsten i NeuroMat- projektet.