Fysik-informerade neurala nätverk
Fysik-informerade neurala nätverk ( PINNs ) är en typ av universella funktionsapproximatorer som kan bädda in kunskapen om alla fysiska lagar som styr en given datamängd i inlärningsprocessen, och kan beskrivas med partiella differentialekvationer (PDE). De övervinner den låga datatillgängligheten hos vissa biologiska och tekniska system som gör att de flesta toppmoderna maskininlärningstekniker saknar robusthet, vilket gör dem ineffektiva i dessa scenarier. Förkunskaperna om allmänna fysiska lagar fungerar i träningen av neurala nätverk (NN) som ett regulariseringsmedel som begränsar utrymmet för tillåtna lösningar, vilket ökar korrektheten av funktionsapproximationen. På så sätt, inbäddning av denna tidigare information i ett neuralt nätverk resulterar i att informationsinnehållet i tillgängliga data förbättras, vilket underlättar inlärningsalgoritmen för att fånga den rätta lösningen och att generalisera väl även med en liten mängd träningsexempel.
Funktionsuppskattning
De flesta av de fysiska lagarna som styr dynamiken i ett system kan beskrivas med partiella differentialekvationer. Till exempel Navier-Stokes-ekvationerna en uppsättning partiella differentialekvationer som härleds från bevarandelagarna ( dvs. bevarande av massa, rörelsemängd och energi) som styr vätskemekaniken . Lösningen av Navier–Stokes ekvationer med lämpliga initiala och randvillkor tillåter kvantifiering av flödesdynamik i en exakt definierad geometri. Dessa ekvationer kan dock inte lösas exakt och därför måste numeriska metoder användas (som finita skillnader , finita element och finita volymer ). I den här inställningen måste dessa styrande ekvationer lösas samtidigt som man tar hänsyn till tidigare antaganden, linearisering och adekvat diskretisering av tid och rum.
Nyligen har lösningen av de styrande partiella differentialekvationerna för fysiska fenomen med hjälp av djupinlärning dykt upp som ett nytt område för vetenskaplig maskininlärning (SciML), som utnyttjar den universella approximationen och höga uttrycksförmågan hos neurala nätverk. I allmänhet skulle djupa neurala nätverk kunna approximera vilken högdimensionell funktion som helst givet att tillräcklig träningsdata tillhandahålls. Sådana nätverk tar dock inte hänsyn till de fysiska egenskaperna som ligger till grund för problemet, och nivån av approximationsnoggrannhet som tillhandahålls av dem är fortfarande starkt beroende av noggranna specifikationer av problemgeometrin såväl som initiala och randvillkor. Utan denna preliminära information är lösningen inte unik och kan förlora fysisk korrekthet. Å andra sidan utnyttjar fysikinformerade neurala nätverk (PINNs) styrande fysiska ekvationer i neurala nätverksträning. PINNs är nämligen utformade för att tränas för att uppfylla de givna träningsdata såväl som de pålagda styrande ekvationerna. På detta sätt kan ett neuralt nätverk styras med träningsdata som inte nödvändigtvis behöver vara stort och komplett. Potentiellt kan en korrekt lösning av partiella differentialekvationer hittas utan att känna till randvillkoren. Därför, med viss kunskap om problemets fysiska egenskaper och någon form av träningsdata (även sparsamt och ofullständigt), kan PINN användas för att hitta en optimal lösning med hög trohet.
PINNs möjliggör att ta itu med ett brett spektrum av problem inom beräkningsvetenskap och representerar en banbrytande teknologi som leder till utvecklingen av nya klasser av numeriska lösare för PDE. PINN kan ses som ett nätfritt alternativ till traditionella metoder (t.ex. CFD för vätskedynamik), och nya datadrivna metoder för modellinversion och systemidentifiering. Särskilt kan det tränade PINN-nätverket användas för att förutsäga värden på simuleringsnät med olika upplösningar utan att behöva tränas om. Dessutom tillåter de att utnyttja automatisk differentiering (AD) för att beräkna de nödvändiga derivatorna i de partiella differentialekvationerna, en ny klass av differentieringstekniker som ofta används för att härleda neurala nätverk som bedöms vara överlägsna numerisk eller symbolisk differentiering .
Modellering och beräkning
En allmän ickelinjär partiell differentialekvation kan vara:
där anger lösningen, är en olinjär operator parametriserad av , och är en delmängd av . Denna allmänna form av styrande ekvationer sammanfattar ett brett spektrum av problem inom matematisk fysik, såsom konservativa lagar, diffusionsprocess, advektion-diffusionssystem och kinetiska ekvationer. Givet bullriga mätningar av ett generiskt dynamiskt system som beskrivs av ekvationen ovan, kan PINN utformas för att lösa två klasser av problem:
- datadriven lösning
- datadriven upptäckt
av partiella differentialekvationer.
Datadriven lösning av partiella differentialekvationer
Den datadrivna lösningen för PDE beräknar det dolda tillståndet för systemet givna gränsdata och/eller mätningar , och fasta modellparametrar . Vi löser:
.
Genom att definiera kvarvarande som
,
och approximera med ett djupt neuralt nätverk. Detta nätverk kan differentieras med hjälp av automatisk differentiering. Parametrarna för och kan sedan läras in genom att minimera följande förlustfunktion :
.
Där är felet mellan PINN och uppsättningen randvillkor och uppmätta data på uppsättningen punkter där randvillkoren och data definieras, och är medelkvadratfelet för restfunktionen. Denna andra term uppmuntrar PINN att lära sig den strukturella informationen som uttrycks av den partiella differentialekvationen under utbildningsprocessen.
Detta tillvägagångssätt har använts för att ge beräkningseffektiva fysikinformerade surrogatmodeller med tillämpningar för prognoser av fysiska processer, modellering av prediktiv kontroll, multifysik och multi-skala modellering och simulering.
Datadriven upptäckt av partiella differentialekvationer
Givet bullriga och ofullständiga mätningar av systemets tillstånd, resulterar den datadrivna upptäckten av PDE i beräkning av det okända tillståndet och inlärningsmodellen parametrar som bäst beskriver de observerade data och den lyder som följer:
.
Genom att definiera som
,
och att approximera med ett djupt neuralt nätverk, resulterar i en PINN. Detta nätverk kan härledas med hjälp av automatisk differentiering. Parametrarna för och , tillsammans med parametern för differentialoperator kan sedan läras in genom att minimera följande förlustfunktion :
.
Där med och anger lösningar och mätningar glesa plats , respektive restfunktion. Denna andra term kräver att den strukturerade informationen som representeras av de partiella differentialekvationerna uppfylls i träningsprocessen.
Denna strategi gör det möjligt att upptäcka dynamiska modeller som beskrivs av icke-linjära PDE:er som sätter samman beräkningseffektiva och helt differentierbara surrogatmodeller som kan hitta tillämpning i prediktiv prognos, kontroll och dataassimilering .
Fysik-informerade neurala nätverk för bitvis funktionsapproximation
PINN kan inte approximera PDE:er som har stark icke-linjäritet eller skarpa gradienter som vanligtvis förekommer i praktiska vätskeflödesproblem. Styckvis approximation har varit en gammal praxis inom området för numerisk approximation. Med förmågan att approximera stark icke-linjäritet används extremt lätta PINNs för att lösa PDEs i mycket större diskreta underdomäner som ökar noggrannheten avsevärt och minskar också beräkningsbelastningen. DPINN(Distribuerade fysikinformerade neurala nätverk) och DPIELM(Distribuerade fysikinformerade extrema inlärningsmaskiner) är generaliserbara rum-tidsdomändiskretisering för bättre approximation. DPIELM är en extremt snabb och lätt approximator med konkurrenskraftig noggrannhet. En annan tankegång är diskretisering för parallell beräkning för att utnyttja användningen av tillgängliga beräkningsresurser.
XPINNs är en generaliserad rymd-tidsdomännedbrytningsmetod för de fysikinformerade neurala nätverken (PINNs) för att lösa ickelinjära partiella differentialekvationer på godtyckliga komplexgeometriska domäner. XPINNs tänjer ytterligare på gränserna för både PINNs såväl som konservativa PINNs (cPINNs), vilket är ett tillvägagångssätt för rumslig domännedbrytning i PINN-ramverket skräddarsytt för bevarandelagar. Jämfört med PINN har XPINN-metoden stor representations- och parallelliseringskapacitet på grund av den inneboende egenskapen att distribuera flera neurala nätverk i de mindre underdomänerna. Till skillnad från cPINN kan XPINN utökas till alla typer av PDE:er. Dessutom kan domänen dekomponeras på vilket godtyckligt sätt som helst (i rum och tid), vilket inte är möjligt i cPINN. XPINN erbjuder alltså både rums- och tidsparallellisering, vilket minskar utbildningskostnaden mer effektivt. XPINN är särskilt effektivt för storskaliga problem (som involverar stora datamängder) såväl som för högdimensionella problem där PINN baserad på ett enda nätverk inte är tillräcklig. De rigorösa gränserna för felen som härrör från approximationen av de olinjära PDE:erna (inkompressibla Navier–Stokes-ekvationer) med PINNs och XPINNs bevisas.
Fysik-informerade neurala nätverk och funktionell interpolation
I PINN-ramverket är initiala och randvillkor inte analytiskt uppfyllda, så de måste inkluderas i nätverkets förlustfunktion för att samtidigt läras in med differentialekvationen (DE) okända funktioner. Att ha konkurrerande mål under nätverkets träning kan leda till obalanserade gradienter samtidigt som gradientbaserade tekniker används, vilket gör att PINN ofta kämpar för att korrekt lära sig den underliggande DE-lösningen. Denna nackdel övervinns genom att använda funktionella interpolationstekniker såsom Theory of Functional Connections (TFC)s begränsade uttryck, i Deep-TFC-ramverket, som reducerar lösningssökningsutrymmet för begränsade problem till subutrymmet av neurala nätverk som analytiskt tillfredsställer begränsningar. En ytterligare förbättring av PINN och funktionell interpolationsmetod ges av ramverket Extreme Theory of Functional Connections (X-TFC), där ett enskiktigt neuralt nätverk och den extrema inlärningsmaskinens träningsalgoritm används. X-TFC gör det möjligt att förbättra noggrannheten och prestandan hos vanliga PINN, och dess robusthet och tillförlitlighet har bevisats för svåra problem, optimal kontroll, rymd- och dynamikapplikationer för förädlad gas.
Fysik-informerat PointNet (PIPN) för flera uppsättningar av oregelbundna geometrier
Vanliga PINN:er kan endast erhålla lösningen av ett framåt- eller inversproblem på en enda geometri. Det betyder att för varje ny geometri (beräkningsdomän) måste man omskola en PINN. Denna begränsning av vanliga PINN medför höga beräkningskostnader, speciellt för en bred undersökning av geometriska parametrar i industriell design. Fysik-informerat PointNet (PIPN) är i grunden resultatet av en kombination av PINNs förlustfunktion med PointNet. I själva verket, istället för att använda ett enkelt helt anslutet neuralt nätverk, använder PIPN PointNet som kärnan i sitt neurala nätverk. PointNet har i första hand designats för djupinlärning av 3D-objektklassificering och segmentering av Leonidas J. Guibas forskargrupp . PointNet extraherar geometriska egenskaper för indataberäkningsdomäner i PIPN. Således kan PIPN lösa styrande ekvationer på flera beräkningsdomäner (snarare än bara en enda domän) med oregelbundna geometrier samtidigt. Effektiviteten av PIPN har visats för inkompressibelt flöde och värmeöverföring .
Begränsningar
Översättning och diskontinuerligt beteende är svåra att uppskatta med PINN. De misslyckas när man löser differentialekvationer med lätt advektiv dominans. De misslyckas också med att lösa ett system av dynamiska system och har därför inte lyckats lösa kaotiska ekvationer. En av anledningarna bakom misslyckandet med de vanliga PINN:erna är mjukbegränsande av Dirichlets och Neumanns gränsvillkor, vilket utgör problem med optimering med flera mål. Detta kräver att man manuellt väger förlustvillkoren för att kunna optimera. En annan anledning är att få optimering i sig. Att framställa PDE-lösning som ett optimeringsproblem tar med sig alla problem som står inför i optimeringsvärlden, det största är att ganska ofta fastnar vid ett lokalt optimum.
- ^ a b c Raissi, Maziar; Perdikaris, Paris; Karniadakis, George Em (2017-11-28). "Fysikinformerad djupinlärning (del I): Datadrivna lösningar av ickelinjära partiella differentialekvationer". arXiv : 1711.10561 [ cs.AI ].
- ^ Batchelor, GK (200). En introduktion till vätskedynamik (2nd pbk. ed.). Cambridge, Storbritannien: Cambridge University Press. ISBN 978-0-521-66396-0 .
- ^ Hornik, Kurt; Tinchcombe, Maxwell; White, Halbert (1989-01-01). "Flerlagers feedforward-nätverk är universella approximatorer" . Neurala nätverk . 2 (5): 359–366. doi : 10.1016/0893-6080(89)90020-8 . ISSN 0893-6080 .
- ^ a b Arzani, Amirhossein; Dawson, Scott TM (2021). "Datadriven kardiovaskulär flödesmodellering: exempel och möjligheter" . Journal of the Royal Society Interface . 18 (175): 20200802. arXiv : 2010.00131 . doi : 10.1098/rsif.2020.0802 . PMC 8086862 . PMID 33561376 .
- ^ Arzani, Amirhossein; Wang, Jian-Xun; D'Souza, Roshan M. (2021-06-07). "Att avslöja blodflöde nära väggen från sparsamma data med fysikinformerade neurala nätverk". Vätskors fysik . 33 (7): 071905. arXiv : 2104.08249 . Bibcode : 2021PhFl...33g1905A . doi : 10.1063/5.0055600 . S2CID 233289904 .
- ^ a b Raissi, Maziar; Perdikaris, Paris; Karniadakis, George Em (2019-02-01). "Fysikinformerade neurala nätverk: ett ramverk för djupinlärning för att lösa framåt och omvända problem som involverar ickelinjära partiella differentialekvationer" . Journal of Computational Physics . 378 : 686-707. Bibcode : 2019JCoPh.378..686R . doi : 10.1016/j.jcp.2018.10.045 . ISSN 0021-9991 . OTI 1595805 . S2CID 57379996 .
- ^ Markidis, Stefano (2021-03-11). "Fysikinformerad djupinlärning för vetenskaplig beräkning". arXiv : 2103.09655 [ math.NA ].
- ^ Baydin, Atilim Gunes; Pearlmutter, Barak A.; Radul, Alexey Andreyevich; Siskind, Jeffrey Mark (2018-02-05). "Automatisk differentiering i maskininlärning: en undersökning". arXiv : 1502.05767 [ cs.SC ].
- ^ Raissi, Maziar; Yazdani, Alireza; Karniadakis, George Em (2018-08-13). "Hidden Fluid Mechanics: A Navier–Stokes Informed Deep Learning Framework for Assimilating Flow Visualization Data". arXiv : 1808.04327 [ cs.CE ].
- ^ Raissi, Maziar; Yazdani, Alireza; Karniadakis, George Em (2020-02-28). "Dold vätskemekanik: Lär dig hastighets- och tryckfält från flödesvisualiseringar" . Vetenskap . 367 (6481): 1026–1030. Bibcode : 2020Sci...367.1026R . doi : 10.1126/science.aaw4741 . ISSN 0036-8075 . PMC 7219083 . PMID 32001523 .
- ^ Mishra, Siddhartha; Molinaro, Roberto (2021-04-01). "Uppskattningar av generaliseringsfelet för Physics Informed Neural Networks (PINNs) för att approximera en klass av omvända problem för PDEs". arXiv : 2007.01138 [ math.NA ].
- ^ a b Ryck, Tim De; Jagtap, Ameya D.; Mishra, Siddhartha (2022). "Feluppskattningar för fysik informerade neurala nätverk som approximerar Navier–Stokes ekvationer". arXiv : 2203.09346 [ math.NA ].
- ^ a b c Dwivedi, Vikas; Parashar, Nishant; Srinivasan, Balaji (2021-01-08). "Distribuerade inlärningsmaskiner för att lösa framåt- och inversproblem i partiella differentialekvationer" . Neurocomputering . 420 : 299-316. doi : 10.1016/j.neucom.2020.09.006 . ISSN 0925-2312 .
- ^ a b c Rout, S., Dwivedi, V., & Srinivasan, B. (2019). Numerisk approximation i CFD-problem med hjälp av fysikinformerad maskininlärning. arXiv förtryck arXiv:2111.02987 .
- ^ Dwivedi, Vikas; Parashar, Nishant; Srinivasan, Balaji (2021-01-08). "Distribuerade inlärningsmaskiner för att lösa framåt- och inversproblem i partiella differentialekvationer" . Neurocomputering . 420 : 299-316. doi : 10.1016/j.neucom.2020.09.006 . ISSN 0925-2312 .
- ^ Jagtap, Ameya D.; Karniadakis, George Em (2020). "Utökade fysikinformerade neurala nätverk (xpinns): Ett generaliserat rum-tidsdomännedbrytningsbaserat ramverk för djupinlärning för icke-linjära partiella differentialekvationer". Communications in Computational Physics . 28 (5): 2002–2041. Bibcode : 2020CCoPh..28.2002K . doi : 10.4208/cicp.OA-2020-0164 . S2CID 229083388 .
- ^ Jagtap, Ameya D.; Kharazmi, Ehsan; Karniadakis, George Em (2020). "Konservativa fysikinformerade neurala nätverk på diskreta domäner för bevarandelagar: applikationer för att vidarebefordra och omvända problem" . Datormetoder i tillämpad mekanik och teknik . 365 : 113028. Bibcode : 2020CMAME.365k3028J . doi : 10.1016/j.cma.2020.113028 . S2CID 216333271 .
- ^ Läcka, Carl; Mortari, Daniele (12 mars 2020). "Djup teori om funktionella anslutningar: En ny metod för att uppskatta lösningarna av partiella differentialekvationer" . Maskininlärning och kunskapsextraktion . 2 (1): 37–55. doi : 10.3390/make2010004 . PMC 7259480 . PMID 32478283 .
- ^ Schiassi, Enrico; Furfaro, Roberto; Läcka, Carl; De Florio, Mario; Johnston, Hunter; Mortari, Daniele (oktober 2021). "Extrem teori om funktionella samband: En snabb fysikinformerad neural nätverksmetod för att lösa vanliga och partiella differentialekvationer". Neurocomputering . 457 : 334-356. doi : 10.1016/j.neucom.2021.06.015 . S2CID 236290147 .
- ^ Schiassi, Enrico; De Florio, Mario; Ganapol, Barry D.; Picca, Paolo; Furfaro, Roberto (mars 2022). "Fysikinformerade neurala nätverk för punktkinetiska ekvationer för kärnreaktordynamik". Annals of Nuclear Energy . 167 : 108833. doi : 10.1016/j.anucene.2021.108833 . S2CID 244913655 .
- ^ Schiassi, Enrico; D'Ambrosio, Andrea; Drozd, Kristofer; Curti, Fabio; Furfaro, Roberto (4 januari 2022). "Fysikinformerade neurala nätverk för optimala plana omloppsöverföringar". Journal of Spacecraft and Rockets . 59 (3): 834–849. Bibcode : 2022JSpRo..59..834S . doi : 10.2514/1.A35138 . S2CID 245725265 .
- ^ De Florio, Mario; Schiassi, Enrico; Ganapol, Barry D.; Furfaro, Roberto (april 2021). "Fysikinformerade neurala nätverk för dynamik för försåld gas: Termiskt krypflöde i Bhatnagar-Gross-Krook-approximationen". Vätskors fysik . 33 (4): 047110. Bibcode : 2021PhFl...33d7110D . doi : 10.1063/5.0046181 . S2CID 234852360 .
- ^ a b Kashefi, Ali; Mukerji, Tapan (2022). "Fysikinformerat PointNet: En djupinlärningslösare för inkompressibla flöden och termiska fält i stabilt tillstånd på flera uppsättningar av oregelbundna geometrier". Journal of Computational Physics . 468 : 111510. arXiv : 2202.05476 . Bibcode : 2022JCoPh.46811510K . doi : 10.1016/j.jcp.2022.111510 . S2CID 246823515 .
- ^ Qi, Charles; Su, Hao; Mo, Kaichun; Guibas, Leonidas (2017). "Pointnet: Deep learning om punktuppsättningar för 3d-klassificering och segmentering" ( PDF) . Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition : 652–660. arXiv : 1612.00593 .
-
^
Aislan Antonelo, Eric; Camponogara, Eduardo; Seman, Laio; Jordanou, Jean Panaioti; de Souza, Eduardo Rehbein; Hubner, Jomi (2023-02-02). "Fysikinformerade neurala nät för kontroll av dynamiska system" . Rochester, NY. doi : 10.2139/ssrn.4346399 .
{{ citera journal }}
: Citera journal kräver|journal=
( hjälp ) - ^ Wang, Sifan; Teng, Yujun; Perdikaris, Paris (2020-01-13). "Förstå och mildra gradientpatologier i fysikinformerade neurala nätverk". arXiv : 2001.04536 [ cs.LG ].
externa länkar
- PINN – repository för att implementera fysikinformerat neurala nätverk i Python
- XPINN – arkiv för att implementera utökat fysikinformerat neuralt nätverk (XPINN) i Python