Artificiell allmän intelligens
Kan en artificiell allmän intelligens skapas? Om så är fallet, hur?
Del av en serie om |
artificiell intelligens |
---|
Artificiell allmän intelligens ( AGI ) är förmågan hos en intelligent agent att förstå eller lära sig någon intellektuell uppgift som människor eller andra djur kan. Det är ett primärt mål för viss om artificiell intelligens och ett vanligt ämne inom science fiction och framtidsstudier . AGI kallas också stark AI , full AI eller allmän intelligent handling , även om vissa akademiska källor reserverar termen "stark AI" för datorprogram som upplever känsla eller medvetande .
Stark AI står i kontrast till svag AI (eller smal AI ), som inte är avsedd att ha allmänna kognitiva förmågor; snarare är svag AI vilket program som helst som är designat för att lösa exakt ett problem. (Akademiska källor reserverar "svag AI" för program som inte upplever medvetande eller inte har ett sinne i samma mening som människor gör.)
En undersökning från 2020 identifierade 72 aktiva AGI FoU-projekt spridda över 37 länder.
Egenskaper
Olika kriterier för intelligens har föreslagits (mest känt Turing-testet ) men hittills finns det ingen definition som tillfredsställer alla.
Intelligensegenskaper
råder dock bred enighet bland forskare om artificiell intelligens om att intelligens krävs för att göra följande:
- resonera , använda strategi, lösa pussel och göra bedömningar under osäkerhet ;
- representera kunskap , inklusive kunskap om sunt förnuft ;
- plan ;
- lära sig ;
- kommunicera på naturligt språk ;
och integrera alla dessa färdigheter mot gemensamma mål. Andra viktiga funktioner inkluderar:
- input som förmågan att känna (t.ex. se , höra, etc.), och
- output som förmågan att agera (t.ex. flytta och manipulera objekt , ändra egen plats för att utforska, etc.)
i denna värld där intelligent beteende ska observeras. Detta skulle innefatta en förmåga att upptäcka och reagera på faror . Många tvärvetenskapliga förhållningssätt till intelligens (t.ex. kognitionsvetenskap , beräkningsintelligens och beslutsfattande ) tenderar att betona behovet av att överväga ytterligare egenskaper som fantasi (tas som förmågan att bilda mentala bilder och begrepp som inte programmerats in) och autonomi .
Datorbaserade system som uppvisar många av dessa möjligheter finns (t.ex. se beräkningskreativitet , automatiserat resonemang , beslutsstödssystem , robot , evolutionär beräkning , intelligent agent ), men ingen har skapat ett integrerat system som utmärker sig på alla dessa områden.
Matematiska formalismer
En matematiskt exakt specifikation av AGI föreslogs av Marcus Hutter 2000. Med namnet AIXI maximerar den föreslagna agenten "förmågan att tillfredsställa mål i ett brett spektrum av miljöer". Denna typ av AGI, som kännetecknas av bevis på förmågan att maximera en matematisk definition av intelligens snarare än att uppvisa mänskligt beteende, kallas också universell artificiell intelligens.
2015 visade Jan Lieke och Marcus Hutter att "Legg-Hutter-intelligens mäts med avseende på en fast Universal Turing Machine ( UTM ). AIXI är den mest intelligenta policyn om den använder samma UTM", ett resultat som "undergräver all befintlig optimalitet egenskaper för AIXI". Detta problem härrör från AIXI:s användning av komprimering som proxy för intelligens, vilket kräver att kognition sker isolerat från den miljö där mål eftersträvas. Detta formaliserar en filosofisk position som kallas Mind-body dualism . Det finns utan tvekan fler bevis till stöd för enaktivism - uppfattningen att kognition äger rum i den miljö där mål eftersträvas. Därefter formaliserade Michael Timothy Bennett enaktiv kognition (se enaktivism ) och identifierade en alternativ proxy för intelligens som kallas svaghet. De medföljande experimenten (som jämför svaghet och komprimering) och matematiska bevis visade att maximering av svaghet resulterar i den optimala "förmågan att utföra ett brett spektrum av uppgifter" eller motsvarande "förmåga att generalisera" (och därmed maximera intelligens per definition). Detta visade också att om enaktivism håller och Mind-body dualism inte, så är komprimering inte nödvändig eller tillräcklig för intelligens, vilket ifrågasätter allmänt hållna åsikter om intelligens (se även Hutter Prize ).
Oavsett vilken ståndpunkt som tas med avseende på kognition, om denna typ av AGI uppvisar mänskligt beteende (som användningen av naturligt språk) skulle bero på många faktorer, till exempel det sätt på vilket agenten är förkroppsligad, eller om den har en belöningsfunktion som nära approximerar mänskliga primitiver av kognition som hunger, smärta och så vidare.
Tester för att bekräfta AGI på mänsklig nivå
Följande tester för att bekräfta AGI på mänsklig nivå har övervägts:
- Turingtestet ( Turing )
- En maskin och en människa pratar båda osynligt med en andra människa, som måste utvärdera vilken av de två som är maskinen, som klarar testet om den kan lura utvärderaren en betydande bråkdel av tiden. Notera: Turing föreskriver inte vad som ska kvalificeras som intelligens, bara att vetskapen om att det är en maskin ska diskvalificera den.
- Kaffetestet ( Wozniak )
- En maskin krävs för att komma in i ett genomsnittligt amerikanskt hem och ta reda på hur man gör kaffe: hitta kaffemaskinen, hitta kaffet, tillsätt vatten, hitta en mugg och brygga kaffet genom att trycka på rätt knappar.
- Robot College Student Test ( Goertzel )
- En maskin registrerar sig på ett universitet, tar och klarar samma klasser som människor skulle göra, och erhåller en examen.
- Sysselsättningstestet ( Nilsson )
- En maskin utför ett ekonomiskt viktigt arbete minst lika bra som människor i samma jobb.
AI-kompletta problem
Det finns många individuella problem som kan kräva allmän intelligens, om maskiner ska lösa problemen lika bra som människor gör. Till exempel kräver även specifika enkla uppgifter, som maskinöversättning , att en maskin läser och skriver på båda språken ( NLP ), följer författarens argument ( anledning ), vet vad det pratas om ( kunskap ) och troget återger författarens original uppsåt ( social intelligens ). Alla dessa problem måste lösas samtidigt för att nå maskinprestanda på mänsklig nivå.
Ett problem är informellt känt som "AI-komplett" eller "AI-hårt", om att lösa det är likvärdigt med den allmänna förmågan hos mänsklig intelligens, eller stark AI, och är bortom kapaciteten för en ändamålsspecifik algoritm.
AI-kompletta problem antas omfatta allmän datorseende , naturlig språkförståelse och hantering av oväntade omständigheter samtidigt som man löser alla verkliga problem.
AI-kompletta problem kan inte lösas enbart med nuvarande datorteknik och kräver mänsklig beräkning . Den här egenskapen kan vara användbar, till exempel för att testa förekomsten av människor, som CAPTCHAs syftar till att göra; och för datorsäkerhet för att avvärja brute-force attacker .
Historia
Klassisk AI
Modern AI-forskning började i mitten av 1950-talet. Den första generationen AI-forskare var övertygade om att artificiell allmän intelligens var möjlig och att den skulle existera om bara några decennier. AI-pionjären Herbert A. Simon skrev 1965: "maskiner kommer att kunna, inom tjugo år, göra vilket arbete en människa kan göra." Deras förutsägelser var inspirationen för Stanley Kubrick och Arthur C. Clarkes karaktär HAL 9000 , som förkroppsligade vad AI-forskare trodde att de kunde skapa till år 2001. AI-pionjären Marvin Minsky var konsult i projektet att göra HAL 9000 lika realistisk som möjligt enligt dåtidens konsensusförutsägelser; Crevier citerar honom för att ha sagt om ämnet 1967, "Inom en generation ... kommer problemet med att skapa 'artificiell intelligens' att vara löst i stor utsträckning".
Flera klassiska AI-projekt , som Doug Lenats Cyc - projekt (som började 1984), och Allen Newells Soar - projekt, var specifikt riktade mot AGI.
Men i början av 1970-talet och sedan igen i början av 90-talet blev det uppenbart att forskare kraftigt hade underskattat svårigheten med projektet. Finansieringsbyråer blev skeptiska till AGI och satte forskare under ökande press att producera användbar "tillämpad AI". När 1980-talet började återupplivade Japans femte generationens datorprojekt intresset för AGI, och satte upp en tioårig tidslinje som inkluderade AGI-mål som "föra en tillfällig konversation". Som svar på detta och expertsystemens framgång pumpade både industrin och regeringen pengar tillbaka till fältet. Men förtroendet för AI kollapsade spektakulärt i slutet av 1980-talet, och målen för Fifth Generation Computer Project uppfylldes aldrig. För andra gången på 20 år hade AI-forskare som hade förutspått den förestående uppnåendet av AGI visat sig ha fundamentalt fel. På 1990-talet hade AI-forskare skaffat sig ett rykte om att ge fåfänga löften. De blev ovilliga att överhuvudtaget göra förutsägelser och undvika att nämna artificiell intelligens på "mänsklig nivå" av rädsla för att bli stämplad som "vildögda drömmare".
Snäv AI-forskning
Under 1990-talet och början av 2000-talet uppnådde mainstream AI mycket större kommersiell framgång och akademisk respektabilitet genom att fokusera på specifika delproblem där de kan producera verifierbara resultat och kommersiella tillämpningar, såsom artificiella neurala nätverk och statistisk maskininlärning . Dessa "tillämpade AI"-system används nu flitigt i hela teknikindustrin, och forskning i denna riktning är kraftigt finansierad inom både akademi och industri. För närvarande, [ när? ] utveckling på detta område anses vara en framväxande trend, och ett moget skede förväntas inträffa om mer än 10 år.
De flesta vanliga AI-forskare hoppas att stark AI kan utvecklas genom att kombinera de program som löser olika delproblem. Hans Moravec skrev 1988:
Jag är övertygad om att den här nedifrån-och-upp-vägen till artificiell intelligens en dag kommer att möta den traditionella top-down-vägen mer än halvvägs, redo att tillhandahålla den verkliga kompetensen och den sunt förnuftkunskap som har varit så frustrerande svårfångad i resonemangsprogram. Fullt intelligenta maskiner kommer att resultera när den metaforiska gyllene spiken drivs och förenar de två ansträngningarna.
Men även denna grundläggande filosofi har ifrågasatts; till exempel avslutade Stevan Harnad vid Princeton University sin artikel från 1990 om Symbol Grounding Hypothesis genom att säga:
Förväntningarna har ofta uttryckts att "top-down" (symboliska) tillvägagångssätt för att modellera kognition på något sätt kommer att möta "bottom-up" (sensoriska) tillvägagångssätt någonstans däremellan. Om grundövervägandena i detta dokument är giltiga, så är denna förväntning hopplöst modulär och det finns egentligen bara en gångbar väg från förnuft till symboler: från grunden. En fritt flytande symbolisk nivå som mjukvarunivån på en dator kommer aldrig att nås på den här vägen (eller vice versa) – och det är inte heller klart varför vi ens ska försöka nå en sådan nivå, eftersom det ser ut som om att ta sig dit bara innebära att rycka bort våra symboler från deras inneboende betydelser (och därigenom bara reducera oss själva till den funktionella motsvarigheten till en programmerbar dator).
Modern forskning om artificiell allmän intelligens
Termen "artificiell allmän intelligens" användes redan 1997, av Mark Gubrud i en diskussion om implikationerna av helautomatiserad militär produktion och operationer. Termen återinfördes och populariserades av Shane Legg och Ben Goertzel runt 2002. AGI-forskningsaktiviteten 2006 beskrevs av Pei Wang och Ben Goertzel som "att producera publikationer och preliminära resultat". Den första sommarskolan i AGI anordnades i Xiamen, Kina 2009 av Xiamen-universitetets Artificial Brain Laboratory och OpenCog. Den första universitetskursen gavs 2010 och 2011 vid Plovdiv University, Bulgarien av Todor Arnaudov. MIT presenterade en kurs i AGI 2018, anordnad av Lex Fridman och med ett antal gästföreläsare.
Men än så länge har de flesta AI-forskare ägnat lite uppmärksamhet åt AGI, och vissa hävdar att intelligens är för komplex för att kunna replikeras helt på kort sikt. Ett litet antal datavetare är dock aktiva inom AGI-forskning, och många i denna grupp bidrar till en serie AGI-konferenser . Forskningen är extremt mångsidig och ofta banbrytande till sin natur.
Tidsskalor: I inledningen till sin bok från 2006 säger Goertzel att uppskattningar av den tid som behövs innan en verkligt flexibel AGI byggs varierar från 10 år till över ett sekel, men 2007 års konsensus i AGI-forskningssamhället verkar vara att tidslinjen som diskuterades av Ray Kurzweil i The Singularity is Near (dvs. mellan 2015 och 2045) är rimligt. Men vanliga AI-forskare har gett ett brett spektrum av åsikter om huruvida framstegen kommer att vara så snabba. En metaanalys från 2012 av 95 sådana åsikter fann en partiskhet mot att förutsäga att uppkomsten av AGI skulle inträffa inom 16–26 år för både moderna och historiska förutsägelser. Det visade sig senare att datasetet listade vissa experter som icke-experter och vice versa.
Under 2017 genomförde forskarna Feng Liu, Yong Shi och Ying Liu intelligenstester på allmänt tillgängliga och fritt tillgängliga svag AI som Google AI eller Apples Siri och andra. Som mest nådde dessa AI ett IQ-värde på cirka 47, vilket ungefär motsvarar ett sexårigt barn i första klass. En vuxen kommer till cirka 100 i genomsnitt. Liknande tester hade genomförts 2014, där IQ-poängen nådde ett maximalt värde på 27.
År 2020 utvecklade OpenAI GPT-3 , en språkmodell som kan utföra många olika uppgifter utan specifik utbildning. Enligt Gary Grossman i en VentureBeat- artikel, medan det råder konsensus om att GPT-3 inte är ett exempel på AGI, anses det av vissa vara för avancerat för att klassificeras som ett smalt AI-system.
Samma år använde Jason Rohrer sitt GPT-3-konto för att utveckla en chatbot och tillhandahöll en chatbot-utvecklingsplattform som heter "Project December". OpenAI bad om ändringar av chatboten för att följa deras säkerhetsriktlinjer; Rohrer kopplade bort Project December från GPT-3 API.
2022 utvecklade DeepMind Gato , ett "allmänt" system som kan utföra mer än 600 olika uppgifter.
Hjärnsimulering
Helhjärnemulering
Ett populärt diskuterat tillvägagångssätt för att uppnå allmän intelligent handling är helhjärnemulering . En hjärnmodell på låg nivå byggs genom att skanna och kartlägga en biologisk hjärna i detalj och kopiera dess tillstånd till ett datorsystem eller annan beräkningsenhet. Datorn kör en simuleringsmodell som är så trogen originalet att den kommer att bete sig på i huvudsak samma sätt som den ursprungliga hjärnan, eller för alla praktiska ändamål omöjligt att skilja. Helhjärnemulering diskuteras inom beräkningsneurovetenskap och neuroinformatik , i samband med hjärnsimulering för medicinska forskningsändamål. Det diskuteras i om artificiell intelligens som ett förhållningssätt till stark AI. Neuroimaging- tekniker som kan ge den nödvändiga detaljerade förståelsen förbättras snabbt, och framtidsforskaren Ray Kurzweil förutspår i boken The Singularity Is Near att en karta av tillräcklig kvalitet kommer att bli tillgänglig på en liknande tidsskala som den nödvändiga datorkraften.
Tidiga uppskattningar
För hjärnsimulering på låg nivå skulle en extremt kraftfull dator krävas. Den mänskliga hjärnan har ett stort antal synapser . Var och en av de 10 11 (hundra miljarder) neuronerna har i genomsnitt 7 000 synaptiska kopplingar (synapser) till andra neuroner. Det har uppskattats att hjärnan hos ett treårigt barn har cirka 10 15 synapser (1 kvadrillion). Detta antal minskar med åldern och stabiliseras i vuxen ålder. Uppskattningarna varierar för en vuxen, från 10 14 till 5 × 10 14 synapser (100 till 500 biljoner). En uppskattning av hjärnans processorkraft, baserad på en enkel switchmodell för neuronaktivitet, är cirka 10 14 (100 biljoner) synaptiska uppdateringar per sekund ( SUPS ).
1997 tittade Kurzweil på olika uppskattningar för den hårdvara som krävs för att vara lika med den mänskliga hjärnan och antog en siffra på 10 16 beräkningar per sekund (cps). (Som jämförelse , om en "beräkning" var likvärdig med en " flyttalsoperation " - ett mått som används för att betygsätta nuvarande superdatorer - så skulle 10 16 "beräkningar" motsvara 10 petaFLOPS , uppnådda 2011 , medan 10 18 uppnåddes år 2022. ) Han använde denna siffra för att förutsäga att den nödvändiga hårdvaran skulle vara tillgänglig någon gång mellan 2015 och 2025, om den exponentiella tillväxten av datorkraft vid skrivande stund fortsatte.
Modellera neuronerna mer i detalj
Den artificiella neuronmodellen som antagits av Kurzweil och används i många nuvarande implementeringar av artificiella neurala nätverk är enkel jämfört med biologiska neuroner . En hjärnsimulering skulle sannolikt behöva fånga det detaljerade cellulära beteendet hos biologiska neuroner , som för närvarande bara förstås i de bredaste konturerna. Den overhead som introduceras genom fullständig modellering av de biologiska, kemiska och fysikaliska detaljerna i neurala beteenden (särskilt i molekylär skala) skulle kräva beräkningskrafter flera storleksordningar större än Kurzweils uppskattning. Dessutom tar uppskattningarna inte hänsyn till gliaceller , som är kända för att spela en roll i kognitiva processer.
Nuvarande forskning
Det finns några forskningsprojekt som undersöker hjärnsimulering med mer sofistikerade neurala modeller, implementerade på konventionella datorarkitekturer. Projektet Artificial Intelligence System implementerade icke-realtidssimuleringar av en "hjärna" (med 10 11 neuroner) 2005. Det tog 50 dagar på ett kluster av 27 processorer att simulera 1 sekund av en modell. Blue Brain- projektet använde en av de snabbaste superdatorarkitekturerna i världen, IBM :s Blue Gene -plattform, för att skapa en realtidssimulering av en neokortikal kolonn från råtta bestående av cirka 10 000 neuroner och 10 8 synapser 2006. En långsiktig Målet är att bygga en detaljerad, funktionell simulering av de fysiologiska processerna i den mänskliga hjärnan: "Det är inte omöjligt att bygga en mänsklig hjärna och vi kan göra det på 10 år," sa Henry Markram, chef för Blue Brain Project 2009 på TED-konferensen i Oxford. Det har också förekommit kontroversiella påståenden om att ha simulerat en katthjärna. [ citat behövs ] Neuro-kiselgränssnitt har föreslagits som en alternativ implementeringsstrategi som kan skalas bättre.
Hans Moravec tog upp ovanstående argument ("hjärnor är mer komplicerade", "neuroner måste modelleras mer detaljerat") i sin uppsats från 1997 "När kommer datorhårdvara att matcha den mänskliga hjärnan?". Han mätte förmågan hos befintlig programvara att simulera funktionaliteten hos neurala vävnader, särskilt näthinnan. Hans resultat beror inte på antalet gliaceller, inte heller på vilka typer av bearbetningsneuroner som utför var.
Den faktiska komplexiteten i att modellera biologiska neuroner har utforskats i OpenWorm-projektet som syftade till fullständig simulering av en mask som bara har 302 neuroner i sitt neurala nätverk (bland cirka 1000 celler totalt). Djurets neurala nätverk är väl dokumenterat innan projektet startade. Men även om uppgiften verkade enkel i början, fungerade inte modellerna baserade på ett generiskt neuralt nätverk. För närvarande är ansträngningarna fokuserade på exakt emulering av biologiska neuroner (delvis på molekylär nivå), men resultatet kan ännu inte kallas en total framgång.
Kritik av simuleringsbaserade tillvägagångssätt
En grundläggande kritik av det simulerade hjärnangreppet härrör från förkroppsligad kognition där mänsklig förkroppsligande tas som en väsentlig aspekt av mänsklig intelligens. Många forskare tror att förkroppsligande är nödvändigt för att grunda mening. Om denna uppfattning är korrekt, kommer varje fullt fungerande hjärnmodell att behöva omfatta mer än bara nervcellerna (dvs en robotkropp). Goertzel föreslår virtuell förkroppsligande (som i Second Life ), men det är ännu inte känt om detta skulle vara tillräckligt.
Stationära datorer som använder mikroprocessorer som kan mer än 10 9 cps (Kurzweils icke-standardiserade enhet "beräkningar per sekund", se ovan) har funnits tillgängliga sedan 2005. Enligt de uppskattningar av hjärnkraft som används av Kurzweil (och Moravec) bör denna dator vara kan stödja en simulering av en bihjärna, men trots visst intresse finns ingen sådan simulering. [ citat behövs ] Det finns flera anledningar till detta:
- Neuronmodellen verkar vara alltför förenklad (se nästa avsnitt).
- Det finns otillräcklig förståelse för högre kognitiva processer för att exakt fastställa vad hjärnans neurala aktivitet (observerad med hjälp av tekniker som funktionell magnetisk resonanstomografi) korrelerar med.
- Även om vår förståelse av kognition utvecklas tillräckligt, är tidiga simuleringsprogram sannolikt mycket ineffektiva och kommer därför att behöva betydligt mer hårdvara.
- Även om en organisms hjärna är kritisk, är den kanske inte en lämplig gräns för en kognitiv modell. För att simulera en bihjärna kan det vara nödvändigt att simulera kroppen och miljön. Extended Mind -uppsatsen formaliserar det filosofiska konceptet, och forskning om bläckfiskar har visat tydliga exempel på ett decentraliserat system.
Dessutom är omfattningen av den mänskliga hjärnan för närvarande inte väl begränsad. En uppskattning ger den mänskliga hjärnan omkring 100 miljarder neuroner och 100 biljoner synapser. En annan uppskattning är 86 miljarder neuroner varav 16,3 miljarder finns i hjärnbarken och 69 miljarder i lillhjärnan . Gliacellsynapser är för närvarande okvantifierade men är kända för att vara extremt många.
Filosofiskt perspektiv
"Stark AI" som definieras i filosofin
1980 myntade filosofen John Searle termen "stark AI" som en del av sitt kinesiska rumsargument . Han ville skilja mellan två olika hypoteser om artificiell intelligens:
- Stark AI-hypotes : Ett artificiellt intelligenssystem kan "tänka", ha "ett sinne" och "medvetande".
- Svag AI-hypotes : Ett artificiellt intelligenssystem kan (bara) agera som det tänker och har ett sinne och medvetande.
Den första kallade han "stark" eftersom den gör ett starkare uttalande: den antar att något speciellt har hänt med maskinen som går utöver alla dess förmågor som vi kan testa - beteendet hos en "svag AI"-maskin skulle vara exakt identiskt med en maskin "stark AI"-maskin, men den senare skulle också ha subjektiv medveten upplevelse. Denna användning är också vanlig i akademisk AI-forskning och läroböcker.
Mainstream AI är bara intresserad av hur ett program beter sig . Enligt Russell och Norvig , "så länge programmet fungerar, bryr de sig inte om du kallar det verkligt eller en simulering." Om programmet kan bete sig som om det har ett sinne, så finns det inget behov av att veta om det faktiskt har ett sinne – det skulle verkligen inte finnas något sätt att säga. För AI-forskning motsvarar Searles "svaga AI-hypotes" påståendet "artificiell allmän intelligens är möjlig". Således, enligt Russell och Norvig, "tar de flesta AI-forskare den svaga AI-hypotesen för given och bryr sig inte om den starka AI-hypotesen." För akademisk AI-forskning är alltså "Strong AI" och "AGI" två väldigt olika saker.
I motsats till Searle och mainstream AI använder vissa futurister som Ray Kurzweil termen "stark AI" för att betyda "artificiell allmän intelligens på mänsklig nivå". Detta är inte samma sak som Searles starka AI , om du inte antar att medvetande är nödvändigt för AGI på mänsklig nivå. Akademiska filosofer som Searle tror inte att så är fallet, och forskare om artificiell intelligens bryr sig inte.
Medvetande
Det finns andra aspekter av det mänskliga sinnet förutom intelligens som är relevanta för begreppet stark AI som spelar en viktig roll i science fiction och artificiell intelligenss etik :
- medvetande : Att ha subjektiv erfarenhet och tanke .
- självkännedom : Att vara medveten om sig själv som en separat individ, speciellt att vara medveten om sina egna tankar.
- sentience : Förmågan att "känna" uppfattningar eller känslor subjektivt.
- sapience : Förmågan till visdom.
Dessa egenskaper har en moralisk dimension, eftersom en maskin med denna form av stark AI kan ha rättigheter, analogt med rättigheterna för icke-mänskliga djur . Som sådan har ett preliminärt arbete utförts på metoder för att integrera fullständiga etiska agenter med befintliga juridiska och sociala ramar. Dessa tillvägagångssätt har fokuserat på den rättsliga ställningen och rättigheterna för "stark" AI. Bill Joy , bland andra, hävdar att en maskin med dessa egenskaper kan vara ett hot mot mänskligt liv eller värdighet.
Det återstår att visa om någon av dessa egenskaper är nödvändiga för stark AI. Medvetandets roll är inte klar, och det finns inget överenskommet test för dess närvaro. Om en maskin är byggd med en enhet som simulerar medvetandets neurala korrelat , skulle den då automatiskt ha självmedvetenhet? Det är också möjligt att en del av dessa egenskaper, såsom sentience, naturligt kommer från en fullt intelligent maskin. Det är också möjligt att det blir naturligt att tillskriva maskiner dessa egenskaper när de väl börjar agera på ett tydligt intelligent sätt.
Artificiell medvetenhetsforskning
Även om medvetandets roll i stark AI/AGI är diskutabel, anser många AGI-forskare forskning som undersöker möjligheter att implementera medvetande som livsviktig. I ett tidigt försök Igor Aleksander att principerna för att skapa en medveten maskin redan existerade men att det skulle ta fyrtio år att träna en sådan maskin att förstå språk . [ förtydligande behövs ]
Möjliga förklaringar till den långsamma utvecklingen av stark AI-forskning
Sedan lanseringen av AI-forskning 1956 har framstegen inom detta område att skapa maskiner som är skickliga med intelligent handling på mänsklig nivå saktat ner. En grundläggande möjlig förklaring till denna fördröjning är att datorer saknar tillräcklig omfattning av minne, processorkraft eller chipflexibilitet för att rymma datavetenskapsorienterade och/eller neurovetenskapsorienterade plattformar. Dessutom begränsar nivån av komplexitet involverad i AI-forskning sannolikt också framstegen för stark AI-forskning.
Konceptuella begränsningar är en annan möjlig orsak till långsamheten i AI-forskningen. AI-forskare kan behöva modifiera det konceptuella ramverket för sin disciplin för att ge en starkare bas och bidrag till strävan efter att uppnå stark AI. Detta innebär att placera en stark AI i ett sociokulturellt sammanhang där människoliknande AI härrör från mänskliga erfarenheter. Som William Clocksin skrev 2003: "ramverket utgår från Weizenbaums observation att intelligens endast manifesterar sig i förhållande till specifika sociala och kulturella sammanhang".
En grundläggande paradox som härrör från detta problem är att AI-forskare bara har kunnat skapa datorer som kan utföra jobb som är komplicerade för människor att utföra, till exempel matematik, men omvänt har de kämpat för att utveckla en dator som är kapabel att utföra uppgifter som är enkla för människor att göra, som att gå ( Moravecs paradox ) . Problemet som beskrivits av David Gelernter är att vissa människor antar att tänkande och resonemang är likvärdiga. Idén om huruvida tankar och skaparen av dessa tankar är isolerade individuellt eller måste vara socialt situerade har fängslat AI-forskare.
De problem som har stött på inom AI-forskning under de senaste decennierna har ytterligare hindrat framstegen inom AGI-forskning och utveckling genom att skapa en viss misstro på området. De misslyckade förutsägelserna om framgång som utlovats av AI-forskare och avsaknaden av en fullständig förståelse för mänskliga beteenden har hjälpt till att minska optimismen i den primära idén att skapa AI på mänsklig nivå. Även om de ökande och avtagande framstegen inom AI-forskningen har lett till både förbättringar och besvikelser, är de flesta utredare optimistiska om att uppnå målet med AGI under 2000-talet.
Andra möjliga orsaker har föreslagits för den långsamma utvecklingen mot stark AI. De invecklade vetenskapliga problemen och behovet av att helt förstå den mänskliga hjärnan genom psykologi och neurofysiologi har begränsat många forskare i uppgiften att efterlikna den mänskliga hjärnans funktion i datorhårdvara genom initiativ som Human Brain Project . Många forskare tenderar att underskatta alla tvivel som är involverade i framtida förutsägelser av AI, men utan att ta frågor som mänsklig hjärnmodell på allvar, förbiser AGI-forskare lösningar på problematiska frågor.
Clocksin menar dock att en begreppsmässig begränsning som kan hämma utvecklingen av AI-forskning är att AI-forskare kan använda fel tekniker för datorprogram och för implementering av utrustning. När AI-forskare först började sikta på AGI var ett huvudintresse att efterlikna och undersöka mänskliga resonemang. Vid den tiden hoppades forskarna kunna etablera beräkningsmodeller för mänsklig kunskap genom resonemang och att ta reda på hur man designar en dator med en specifik kognitiv uppgift.
Som svar ger praktiken av abstraktion, som människor tenderar att omdefiniera när de arbetar med ett visst sammanhang i forskning, AI-forskare möjlighet att koncentrera sig på bara några få begrepp. Den mest produktiva användningen av abstraktion i AI-forskning kommer från planering och problemlösning. Även om syftet är att öka hastigheten på en beräkning, har abstraktionsoperatörernas roll ställt till problem.
En annan möjlig orsak till långsamheten i starka AI-framsteg relaterar till erkännandet av många AI-forskare att mänsklig heuristik fortfarande är mycket överlägsen datorprestanda. Icke desto mindre kan de specifika funktioner som programmeras in i allt kraftfullare datorer kunna stå för många av kraven inom heuristik som så småningom tillåter AI att matcha mänsklig intelligens. Även om heuristik inte nödvändigtvis är ett grundläggande hinder för att uppnå stark AI, är det allmänt överens om att vara en utmaning.
Slutligen har många AI-forskare diskuterat huruvida maskiner ska skapas med känslor eller inte . Det finns inga känslor i typiska modeller av AI, och vissa forskare säger att programmering av känslor i maskiner tillåter dem att ha ett eget sinne. Emellertid sammanfattar känslor människors upplevelser eftersom det tillåter dem att minnas dessa upplevelser. David Gelernter skriver, "Ingen dator kommer att vara kreativ om den inte kan simulera alla nyanser av mänskliga känslor." Så precis som denna oro över känslor har ställt till problem för AI-forskare, kommer den sannolikt att fortsätta att utmana konceptet med stark AI allt eftersom forskningen fortskrider.
Kontroverser och faror
Genomförbarhet
Från och med 2022 är AGI fortfarande spekulativt eftersom inget sådant system ännu har visats. Åsikterna går isär både om och när artificiell allmän intelligens kommer. I ena ytterligheten spekulerade AI-pionjären Herbert A. Simon 1965 att "maskiner kommer att kunna, inom tjugo år, göra vilket arbete en människa kan göra". Denna förutsägelse gick dock inte i uppfyllelse. Microsofts medgrundare Paul Allen trodde att sådan intelligens är osannolik under 2000-talet eftersom det skulle kräva "oförutsebara och i grunden oförutsägbara genombrott" och en "vetenskapligt djup förståelse av kognition". Robotikern Alan Winfield skrev i The Guardian och hävdade att klyftan mellan modern datoranvändning och artificiell intelligens på mänsklig nivå är lika stor som klyftan mellan nuvarande rymdfärd och praktiska rymdfärder som är snabbare än ljuset.
Som sådan är den grundläggande frågan om stark AI i grunden är möjlig att uppnå, även efter århundraden av ansträngning. Medan de flesta AI-forskare tror att stark AI kan uppnås i framtiden, förnekar vissa individer, som Hubert Dreyfus och Roger Penrose , möjligheten att uppnå stark AI. Ett grundläggande problem är att även om människor är komplexa, är de inte allmänna intelligenser. Olika datavetare, som John McCarthy , tror att AI på mänsklig nivå kommer att uppnås, men att den nuvarande nivån av framsteg är sådan att ett datum inte kan förutsägas exakt. AI-experters åsikter om genomförbarheten av AGI-vax och avtagande, och kan ha sett en återkomst på 2010-talet. Fyra undersökningar genomförda 2012 och 2013 antydde att mediangissningen bland experter för när de skulle vara 50 % säkra på att AGI skulle komma var 2040 till 2050, beroende på undersökningen, med medelvärdet 2081. Av experterna svarade 16,5 % med " aldrig" när man ställde samma fråga men med 90% självförtroende istället. Ytterligare aktuella AGI-framstegsöverväganden kan hittas ovan Tester för att bekräfta AGI på mänsklig nivå .
Ändå är det värt att notera att det inte finns någon vetenskaplig rigoritet i sådana förutsägelser. Rodney Brooks noterar resultaten i en rapport av Stuart Armstrong och Kaj Sotala, från Machine Intelligence Research Institute, att "under den 60-åriga tidsramen finns det en stark fördom mot att förutsäga ankomsten av mänsklig nivå AI som mellan 15 och 25 år från tiden då förutsägelsen gjordes". De analyserade också 95 förutsägelser gjorda mellan 1950 och nutid om när AI på mänsklig nivå kommer till stånd. De visar att det inte finns någon skillnad mellan förutsägelser gjorda av experter och icke-experter.
Potentiellt hot mot mänsklig existens
Tesen att AI utgör en existentiell risk för människor, och att denna risk behöver mycket mer uppmärksamhet än den får för närvarande, har fått stöd av många offentliga personer; de kanske mest kända är Elon Musk , Bill Gates och Stephen Hawking . Den mest anmärkningsvärda AI-forskaren som stöder avhandlingen är Stuart J. Russell , men många andra, som Roman Yampolskiy och Alexey Turchin, stöder också den grundläggande tesen om ett potentiellt hot mot mänskligheten. De som stöder avhandlingen uttrycker ibland förbryllande över skeptiker: Gates säger att han inte "förstår varför vissa människor inte är oroliga", och Hawking kritiserade utbredd likgiltighet i sin ledare från 2014:
Så, inför möjliga framtider med oöverskådliga fördelar och risker, gör experterna säkert allt för att säkerställa det bästa resultatet, eller hur? Fel. Om en överlägsen utomjordisk civilisation skickade ett meddelande till oss som sa: 'Vi kommer om några decennier', skulle vi bara svara: 'OK, ring oss när du kommer hit – vi låter lamporna vara tända?' Förmodligen inte – men det här är mer eller mindre vad som händer med AI.
En systematisk genomgång 2021 av riskerna förknippade med AGI utförd av forskare från Center for Human Factors and Sociotechnical Systems vid University of the Sunshine Coast i Australien, samtidigt som man noterade bristen på data, fann följande potentiella hot: "AGI tar bort sig själv från kontrollen av mänskliga ägare/chefer, att ges eller utveckla osäkra mål, utveckling av osäkra AGI, AGI med dålig etik, moral och värderingar, otillräcklig hantering av AGI och existentiella risker".
Många av de forskare som är oroade över existentiella risker tror att den bästa vägen framåt skulle vara att bedriva (möjligen massiv) forskning för att lösa det svåra "kontrollproblemet" för att svara på frågan: vilka typer av skyddsåtgärder, algoritmer eller arkitekturer kan programmerare implementera för att maximera sannolikheten för att deras rekursivt förbättrande AI skulle fortsätta att bete sig på ett vänligt , snarare än destruktivt, sätt efter att den når superintelligens? Att lösa kontrollproblemet kompliceras av AI-kapprustningen, som med största sannolikhet kommer att leda till militarisering och beväpning av AGI av mer än en nationalstat, dvs., vilket resulterar i AGI-aktiverad krigföring, och i fallet med AI-felanpassning, AGI- riktad krigföring, potentiellt mot hela mänskligheten.
Tesen att AI kan utgöra en existentiell risk har också många starka belackare. Skeptiker hävdar ibland att avhandlingen är krypto-religiös, med en irrationell tro på möjligheten att superintelligens ersätter en irrationell tro på en allsmäktig Gud; till ytterligheten Jaron Lanier att hela konceptet att nuvarande maskiner på något sätt är intelligenta är "en illusion" och en "överväldigande con" av de rika.
Mycket av befintlig kritik hävdar att AGI är osannolikt på kort sikt. Datavetaren Gordon Bell hävdar att mänskligheten kommer att förstöra sig själv innan den når den tekniska singulariteten . Gordon Moore , den ursprungliga förespråkaren av Moores lag , förklarar att "Jag är en skeptiker. Jag tror inte att [en teknisk singularitet] sannolikt kommer att hända, åtminstone under en lång tid. Och jag vet inte varför jag känner att sätt." Tidigare Baidu vicepresident och chefsforskare Andrew Ng säger att AI existentiell risk är "som att oroa sig för överbefolkning på Mars när vi inte ens har satt sin fot på planeten ännu."
Se även
- Artificiell hjärna – Mjukvara och hårdvara med kognitiva förmågor som liknar djurens eller mänskliga hjärnans
- AI-anpassning – Fråga om att säkerställa fördelaktig AI
- AI Rising – 2018 film regisserad av Lazar Bodroža
- Automatiserad maskininlärning – Process för att automatisera tillämpningen av maskininlärning
- BRAIN Initiative – Samarbetsinitiativ för offentlig-privat forskning som tillkännagavs av Obama-administrationen
- China Brain Project
- Future of Humanity Institute – Oxford interdisciplinary research center
- Allmänt spelande – Lär dig spela flera spel framgångsrikt
- Human Brain Project – Vetenskapligt forskningsprojekt
- Intelligensförstärkning – Användning av informationsteknik för att öka mänsklig intelligens (IA)
- Maskinetik – Moraliska beteenden hos konstgjorda maskiner
- Multi-task learning – Löser flera maskininlärningsuppgifter samtidigt
- Översikt över artificiell intelligens – Översikt över och aktuell guide till artificiell intelligens
- Transhumanism – Filosofisk rörelse
- Syntetisk intelligens – Alternativ term för eller form av artificiell intelligens
- Överför lärande – Tillämpa tidigare lärd kunskap på nya problem
- Loebnerpriset – Årlig AI-tävling
- Hårdvara för artificiell intelligens
- Svag artificiell intelligens – Form av artificiell intelligens
Anteckningar
Källor
- UNESCO:s vetenskapsrapport: Race Against Time for Smarter Development . Paris: UNESCO. 11 juni 2021. ISBN 978-92-3-100450-6 . Arkiverad från originalet den 18 juni 2022 . Hämtad 22 september 2021 .
- Aleksander, Igor (1996), Impossible Minds , World Scientific Publishing Company, ISBN 978-1-86094-036-1
- Azevedo FA, Carvalho LR, Grinberg LT, Farfel J, et al. (april 2009), "Lika antal neuronala och icke-neuronala celler gör den mänskliga hjärnan till en isometriskt uppskalad primathjärna", The Journal of Comparative Neurology , 513 (5): 532–41, doi : 10.1002/cne.21974 , 21974 , 513 ( 5 ): 19226510 , S2CID 5200449 , arkiverad från originalet 18 februari 2021 , hämtad 4 september 2013
- Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren , arkiverad från originalet 23 juli 2014 , hämtad 31 augusti 2012
- Chalmers, David (1996), The Conscious Mind , Oxford University Press.
- Clocksin, William (augusti 2003), "Artificial intelligence and the future", Philosophical Transactions of the Royal Society A , 361 (1809): 1721–1748, Bibcode : 2003RSPTA.361.1721C , doi : 10.1209 .10.1209 , 10.1209 . 2683 , S2CID 31032007 .
- Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence . New York, NY: BasicBooks. ISBN 0-465-02997-3 .
- Darrach, Brad (20 november 1970), "Möt Shakey, den första elektroniska personen", Life Magazine , s. 58–68 .
- Drachman, D (2005), "Har vi hjärna till övers?", Neurology , 64 (12): 2004–5, doi : 10.1212/01.WNL.0000166914.38327.BB , PMID 15985565 , S482ID 1 , 848 .
- Feigenbaum, Edward A. ; McCorduck, Pamela (1983), The Fifth Generation: Artificiell intelligens och Japans datorutmaning till världen , Michael Joseph, ISBN 978-0-7181-2401-4
- Gelernter, David (2010), Dream-logic, the Internet and Artificial Thought , arkiverad från originalet den 26 juli 2010 , hämtad 25 juli 2010
- Goertzel, Ben; Pennachin, Cassio, red. (2006), Artificial General Intelligence (PDF) , Springer, ISBN 978-3-540-23733-4 , arkiverad från originalet (PDF) den 20 mars 2013
- Goertzel, Ben (december 2007), "Artificiell allmän intelligens på mänsklig nivå och möjligheten till en teknisk singularitet: en reaktion på Ray Kurzweils The Singularity Is Near, och McDermotts kritik av Kurzweil", Artificial Intelligence , 171 (18, Special Review) ): 1161–1173, doi : 10.1016/j.artint.2007.10.011 , arkiverad från originalet 7 januari 2016 , hämtad 1 april 2009 .
- Gubrud, Mark (november 1997), "Nanotechnology and International Security" , Fifth Foresight Conference on Molecular Nanotechnology , arkiverad från originalet den 29 maj 2011 , hämtad 7 maj 2011
- Halal, William E. "TechCast Article Series: The Automation of Thought" (PDF) . Arkiverad från originalet (PDF) den 6 juni 2013.
- Holte, RC; Choueiry, BY (2003), "Abstraction and reformulation in artificiell intelligens", Philosophical Transactions of the Royal Society B , 358 (1435): 1197–1204, doi : 10.1098/rstb.2003.1317 , PMC 321816 9 PM 321816 .
- Howe, J. (november 1994), Artificiell intelligens vid Edinburgh University : a Perspective , arkiverad från originalet den 17 augusti 2007 , hämtad 30 augusti 2007
- Johnson, Mark (1987), The body in the mind , Chicago, ISBN 978-0-226-40317-5
- Kurzweil, Ray (2005), The Singularity is Near , Viking Press
- Lighthill, professor Sir James (1973), "Artificial Intelligence: A General Survey", Artificial Intelligence: a paper symposium , Science Research Council
- Luger, George; Stubblefield, William (2004), Artificiell intelligens: strukturer och strategier för komplex problemlösning (5:e upplagan), The Benjamin/Cummings Publishing Company, Inc., sid. 720 , ISBN 978-0-8053-4780-7
- McCarthy, John (oktober 2007), "From here to human-level AI", Artificial Intelligence , 171 (18): 1174–1182, doi : 10.1016/j.artint.2007.10.009 .
- McCorduck, Pamela (2004), Machines Who Think (2:a upplagan), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1
- Moravec, Hans (1976), The Role of Raw Power in Intelligence , arkiverad från originalet den 3 mars 2016 , hämtad 29 september 2007
- Moravec, Hans (1988), Mind Children , Harvard University Press
- Moravec, Hans (1998), "När kommer datorhårdvara att matcha den mänskliga hjärnan?" , Journal of Evolution and Technology , 1 , arkiverad från originalet den 15 juni 2006 , hämtad 23 juni 2006
- Nagel (1974), "What Is it Like to Be a Bat" (PDF) , Philosophical Review , 83 (4): 435–50, doi : 10.2307/2183914 , JSTOR 2183914 , arkiverad (PDF) från originalet den 16 oktober 2011 , hämtad 7 november 2009 .
- Newell, Allen ; Simon, HA (1963), "GPS: Ett program som simulerar mänskligt tänkande", i Feigenbaum, EA; Feldman, J. (red.), Computers and Thought , New York: McGraw-Hill
- Newell, Allen ; Simon, HA (1976). "Datavetenskap som empirisk undersökning: Symboler och sökning" . Kommunikation från ACM . 19 (3): 113–126. doi : 10.1145/360018.360022 .
- Nilsson, Nils (1998), Artificial Intelligence: A New Synthesis , Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4
- NRC (1999), "Developments in Artificial Intelligence" , Funding a Revolution: Government Support for Computing Research , National Academy Press, arkiverad från originalet den 12 januari 2008 , hämtad 29 september 2007
- Omohundro, Steve (2008), The Nature of Self-Improving Artificial Intelligence , presenterade och distribuerade vid 2007 Singularity Summit, San Francisco, CA.
- Poole, David; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach , New York: Oxford University Press, arkiverad från originalet den 25 juli 2009, hämtad 6 december 2007
- Russell, Stuart J .; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2
- Sandberg, Anders; Boström, Nick (2008), Whole Brain Emulation: A Roadmap (PDF) , Technical Report #2008‐3, Future of Humanity Institute, Oxford University, arkiverad (PDF) från originalet den 25 mars 2020 , hämtad 5 april 2009
- Searle, John (1980), "Minds, Brains and Programs" (PDF) , Behavioral and Brain Sciences , 3 ( 3): 417–457, doi : 10.1017/S0140525X00005756 , S2CID 553037 från originalet 1PD 72 från 1PD 72 , 1980 mars 2019 , hämtad 3 september 2020
- Simon, HA (1965), The Shape of Automation for Men and Management , New York: Harper & Row
- Sutherland, JG (1990), "Holographic Model of Memory, Learning, and Expression", International Journal of Neural Systems , 1–3 : 256–267 .
- de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur, red. (2008), Symbols and Embodiment: Debates on meaning and cognition , Oxford University Press, ISBN 978-0-19-921727-4 .
- Wang, Pei; Goertzel, Ben (2007). "Introduktion: Aspekter av artificiell allmän intelligens" . Framsteg inom artificiell allmän intelligens: koncept, arkitekturer och algoritmer: Proceedings of the AGI Workshop 2006 . s. 1–16. ISBN 978-1-58603-758-1 . Arkiverad från originalet den 18 februari 2021 . Hämtad 13 december 2020 .
- Williams RW, Herrup K (1988), "The control of neuron number", Annual Review of Neuroscience , 11 : 423–53, doi : 10.1146/annurev.ne.11.030188.002231 , PMID 3284447 .
- Yudkowsky, Eliezer (2006), "Artificial General Intelligence" (PDF) , Annual Review of Psychology , Springer, 49 : 585–612, doi : 10.1146/annurev.psych.49.1.585 , ISBN 978-3-733-533-2340 4 , PMID 9496632 , arkiverad från originalet (PDF) den 11 april 2009 .
- Yudkowsky, Eliezer (2008), "Artificial Intelligence as a Positive and Negative Factor in Global Risk", Global Catastrophic Risks , Bibcode : 2008gcr..book..303Y , doi : 10.1093 / oso /978019850705.809.1,809.1,809.1,809.1,809.1,809. 509 .
- Zucker, Jean-Daniel (juli 2003), "A grounded theory of abstraction in artificiell intelligens", Philosophical Transactions of the Royal Society B , 358 (1435): 1293–1309, doi : 10.1098/rstb.2003.1308 16 PM 16, PMC 16 9 , PMC 16 358 ( 1435 ) : 12903672 .
externa länkar
- AGI-portalen som underhålls av Pei Wang
- The Genesis Group vid MIT:s CSAIL – Modern forskning om de beräkningar som ligger till grund för mänsklig intelligens
- OpenCog – öppen källkodsprojekt för att utveckla en AI på mänsklig nivå
- Simulerar logiskt mänskligt tänkande
- Vad vet vi om AI-tidslinjer? - Litteraturrecension