Probabilistiska neurala nätverk
Ett probabilistiskt neuralt nätverk (PNN) är ett neuralt nätverk för feedforward , som används i stor utsträckning i klassificerings- och mönsterigenkänningsproblem. I PNN-algoritmen approximeras den överordnade sannolikhetsfördelningsfunktionen (PDF) för varje klass av ett Parzen-fönster och en icke-parametrisk funktion. Sedan, med hjälp av PDF för varje klass, uppskattas klasssannolikheten för en ny indata och Bayes regel används sedan för att allokera klassen med högst bakre sannolikhet till nya indata. Med denna metod minimeras sannolikheten för felklassificering. Denna typ av artificiellt neuralt nätverk (ANN) härleddes från Bayesian-nätverket och en statistisk algoritm som kallas Kernel Fisher discriminant analysis . Det introducerades av DF Specht 1966. I en PNN är verksamheten organiserad i ett flerskiktat feedforward-nätverk med fyra lager:
- Indatalager
- Mönsterlager
- Summeringslager
- Utdatalager
Skikten
PNN används ofta i klassificeringsproblem. När en ingång finns, beräknar det första lagret avståndet från ingångsvektorn till träningsingångsvektorerna. Detta producerar en vektor där dess element indikerar hur nära ingången är träningsinsatsen. Det andra lagret summerar bidraget för varje klass av indata och producerar dess nettoutdata som en vektor av sannolikheter. Slutligen väljer en konkurrerande överföringsfunktion på utgången från det andra lagret det maximala av dessa sannolikheter och producerar en 1 (positiv identifikation) för den klassen och en 0 (negativ identifikation) för icke-målklasser.
Indatalager
Varje neuron i ingångsskiktet representerar en prediktorvariabel. I kategoriska variabler används N-1 neuroner när det finns N antal kategorier. Den standardiserar intervallet för värdena genom att subtrahera medianen och dividera med det interkvartila intervallet . Sedan matar ingångsneuronerna värdena till var och en av neuronerna i det dolda lagret.
Mönsterlager
Detta lager innehåller en neuron för varje fall i träningsdatauppsättningen. Den lagrar värdena för prediktorvariablerna för fallet tillsammans med målvärdet. En dold neuron beräknar testfallets euklidiska avstånd från neurons mittpunkt och applicerar sedan den radiella basfunktionskärnan med hjälp av sigmavärdena.
Summeringslager
För PNN finns det en mönsterneuron för varje kategori av målvariabeln. Den faktiska målkategorin för varje träningsfall lagras med varje gömd neuron; det viktade värdet som kommer ut ur en dold neuron matas endast till mönsterneuronen som motsvarar den dolda neurons kategori. Mönsterneuronerna lägger till värdena för den klass de representerar.
Utdatalager
Utdatalagret jämför de viktade rösterna för varje målkategori som ackumulerats i mönsterlagret och använder den största rösten för att förutsäga målkategorin.
Fördelar
Det finns flera fördelar och nackdelar med PNN istället för flerskiktsperceptron .
- PNN:er är mycket snabbare än flerskiktiga perceptronnätverk.
- PNN:er kan vara mer exakta än flerskiktsperceptronnätverk.
- PNN-nätverk är relativt okänsliga för extremvärden.
- PNN-nätverk genererar exakta förutspådda målsannolikhetspoäng.
- PNN närmar sig Bayes optimala klassificering.
Nackdelar
- PNN är långsammare än flerskikts perceptronnät när det gäller att klassificera nya fall.
- PNN kräver mer minnesutrymme för att lagra modellen.
Ansökningar baserade på PNN
- probabilistiska neurala nätverk vid modellering av strukturell försämring av dagvattenledningar.
- probabilistiska neurala nätverk metod till magendoskopprover diagnos baserad på FTIR-spektroskopi.
- Tillämpning av probabilistiska neurala nätverk på populationsfarmakokineter.
- Probabilistiska neurala nätverk till klassprediktionen av leukemi och embryonal tumör i centrala nervsystemet.
- Fartygsidentifiering med hjälp av probabilistiska neurala nätverk.
- Probabilistisk neural nätverksbaserad sensorkonfigurationshantering i ett trådlöst ad hoc- nätverk.
- Probabilistiskt neuralt nätverk i karaktärskännande.
- Fjärravkännande bildklassificering.