AI övertagande
Del av en serie om |
artificiell intelligens |
---|
Ett övertagande av AI är ett hypotetiskt scenario där en artificiell intelligens (AI) blir den dominerande formen av intelligens på jorden, eftersom datorprogram eller robotar effektivt tar kontrollen över planeten från den mänskliga arten. Möjliga scenarier inkluderar utbyte av hela den mänskliga arbetsstyrkan, övertagande av en superintelligent AI och den populära föreställningen om ett robotuppror . Berättelser om AI-övertaganden är mycket populära i hela science-fiction . Vissa offentliga personer, som Stephen Hawking och Elon Musk , har förespråkat forskning om försiktighetsåtgärder för att säkerställa att framtida superintelligenta maskiner förblir under mänsklig kontroll.
Typer
Automatisering av ekonomin
Den traditionella konsensus bland ekonomer har varit att tekniska framsteg inte orsakar långtidsarbetslöshet. Den senaste tidens innovation inom robotik och artificiell intelligens har dock väckt oro för att mänskligt arbete kommer att bli föråldrat, vilket gör att människor i olika sektorer saknar jobb för att försörja sig, vilket leder till en ekonomisk kris. Många små och medelstora företag kan också drivas i konkurs om de inte kommer att ha råd med eller licensiera den senaste roboten och AI-tekniken, och kan behöva fokusera på områden eller tjänster som inte enkelt kan ersättas för fortsatt lönsamhet i ansiktet av sådan teknik.
Teknik som kan förskjuta arbetare
AI-teknik har antagits i stor utsträckning de senaste åren, och denna trend kommer bara att fortsätta att vinna popularitet med tanke på ansträngningarna för digital transformation från företag över hela världen. Även om dessa teknologier har ersatt många traditionella arbetare skapar de också nya möjligheter. Branscher som är mest mottagliga för övertagande av AI inkluderar transport, detaljhandel och militär. AI militär teknik tillåter till exempel soldater att arbeta på distans utan risk för skador. Författaren Dave Bond hävdar att när AI-teknik fortsätter att utvecklas och expandera, kommer relationen mellan människor och robotar att förändras; de kommer att bli nära integrerade i flera aspekter av livet. Sammantaget är det säkert att anta att AI kommer att tränga undan vissa arbetare samtidigt som det skapar möjligheter för nya jobb inom andra sektorer, särskilt inom områden där uppgifter kan upprepas.
Datorintegrerad tillverkning
Datorintegrerad tillverkning är tillverkningsmetoden för att använda datorer för att styra hela produktionsprocessen. Denna integration tillåter individuella processer att utbyta information med varandra och initiera åtgärder. Även om tillverkning kan vara snabbare och mindre felbenägen genom integration av datorer, är den största fördelen möjligheten att skapa automatiserade tillverkningsprocesser. Datorintegrerad tillverkning används inom fordons-, flyg-, rymd- och skeppsbyggnadsindustrin.
Tjänstemannamaskiner
Under 2000-talet har en mängd skickliga uppgifter delvis tagits över av maskiner, inklusive översättning, juridisk forskning och till och med journalistik på låg nivå. Vårdarbete, underhållning och andra sysslor som kräver empati, som tidigare ansågs vara säkra från automatisering, har också börjat utföras av robotar.
Autonoma bilar
En autonom bil är ett fordon som kan känna av sin omgivning och navigera utan mänsklig input. Många sådana fordon utvecklas, men från och med maj 2017 är automatiserade bilar som är tillåtna på allmänna vägar ännu inte helt autonoma. De kräver alla en mänsklig förare vid ratten som är redo med ett ögonblicks varsel för att ta kontroll över fordonet. Bland de främsta hindren för en utbredd användning av autonoma fordon är oro över den resulterande förlusten av körrelaterade jobb inom vägtransportbranschen. Den 18 mars 2018 dödades den första människan av ett autonomt fordon i Tempe, Arizona av en Uber självkörande bil.
Utrotning
Forskare som Stephen Hawking är övertygade om att övermänsklig artificiell intelligens är fysiskt möjlig, och säger att "det finns ingen fysisk lag som hindrar partiklar från att organiseras på sätt som utför ännu mer avancerade beräkningar än arrangemangen av partiklar i mänskliga hjärnor". Forskare som Nick Bostrom diskuterar hur långt borta övermänsklig intelligens är, och om den faktiskt skulle utgöra en risk för mänskligheten. Enligt Bostrom skulle en superintelligent maskin inte nödvändigtvis vara motiverad av samma känslomässiga önskan att samla makt som ofta driver människor utan kanske snarare behandlar makt som ett medel för att nå sina slutliga mål; att ta över världen skulle både öka dess tillgång till resurser och hjälpa till att förhindra andra agenter från att stoppa maskinens planer. Som ett alltför förenklat exempel, en gem-maximering som enbart utformad för att skapa så många gem som möjligt skulle vilja ta över världen så att den kan använda alla världens resurser för att skapa så många gem som möjligt, och dessutom förhindra människor från att stänga ner eller använda dessa resurser på andra saker än gem.
I fiktion
AI-övertagande är ett vanligt tema inom science fiction . Fiktiva scenarier skiljer sig vanligtvis mycket från de hypoteser som forskare antar genom att de involverar en aktiv konflikt mellan människor och en AI eller robotar med antropomorfa motiv som ser dem som ett hot eller på annat sätt har en aktiv önskan att bekämpa människor, i motsats till forskarnas oro för en AI som snabbt utrotar människor som en biprodukt av att sträva efter godtyckliga mål. Idén finns i Karel Čapeks RUR , som introducerade ordet robot till det globala lexikonet 1921, och kan till och med skymtas i Mary Shelleys Frankenstein ( publicerad 1818), när Victor funderar på om, om han beviljar sitt monsters begär och gör honom till hustru, de skulle fortplanta sig och deras sort skulle förstöra mänskligheten.
Ordet "robot" från RUR kommer från det tjeckiska ordet robota, som betyder arbetare eller livegen . Pjäsen från 1920 var en protest mot teknikens snabba tillväxt, med tillverkade "robotar" med ökande kapacitet som så småningom gör uppror. HAL 9000 (1968) och den ursprungliga Terminator (1984) är två ikoniska exempel på fientlig AI i popkulturen.
Bidragande faktorer
Fördelar med övermänsklig intelligens framför människor
Nick Bostrom och andra har uttryckt oro över att en AI med förmågan hos en kompetent artificiell intelligensforskare skulle kunna modifiera sin egen källkod och öka sin egen intelligens. Om dess självomprogrammering leder till att den blir ännu bättre på att kunna programmera om sig själv, kan resultatet bli en rekursiv intelligensexplosion där den snabbt skulle lämna mänsklig intelligens långt bakom sig. Bostrom definierar en superintelligens som "varje intellekt som avsevärt överstiger människors kognitiva prestanda inom praktiskt taget alla intresseområden", och räknar upp några fördelar som en superintelligens skulle ha om den valde att konkurrera mot människor:
- Teknikforskning: En maskin med övermänsklig vetenskaplig forskningsförmåga skulle kunna slå det mänskliga forskarsamhället till milstolpar som nanoteknik eller avancerad bioteknik.
- Strategiering : En superintelligens kan helt enkelt överlista mänskligt motstånd.
- Social manipulation: En superintelligens kanske kan rekrytera mänskligt stöd, eller i hemlighet hetsa till ett krig mellan människor.
- Ekonomisk produktivitet: Så länge som en kopia av AI skulle kunna producera mer ekonomisk rikedom än kostnaden för dess hårdvara, skulle enskilda människor ha ett incitament att frivilligt låta Artificiell General Intelligence (AGI) köra en kopia av sig själv på sina system.
- Hacking: En superintelligens kan hitta nya bedrifter i datorer som är anslutna till Internet och sprida kopior av sig själv till dessa system, eller kan stjäla pengar för att finansiera sina planer.
Källor till AI-fördelar
Enligt Bostrom skulle ett datorprogram som troget efterliknar en mänsklig hjärna, eller som på annat sätt kör algoritmer som är lika kraftfulla som den mänskliga hjärnans algoritmer, fortfarande skulle kunna bli en "speed superintelligens" om det kan tänka många storleksordningar snabbare än en människa, på grund av att den är gjord av kisel snarare än kött, eller på grund av optimering med fokus på att öka hastigheten på AGI. Biologiska neuroner arbetar vid cirka 200 Hz, medan en modern mikroprocessor arbetar med en hastighet av cirka 2 000 000 000 Hz. Mänskliga axoner har aktionspotentialer på cirka 120 m/s, medan datorsignaler färdas nära ljusets hastighet.
Ett nätverk av intelligenser på mänsklig nivå utformade för att nätverka tillsammans och dela komplexa tankar och minnen sömlöst, som tillsammans kan arbeta som ett gigantiskt enhetligt team utan friktion, eller bestående av biljoner intelligenser på mänsklig nivå, skulle bli en "kollektiv superintelligens".
Mer allmänt kan ett antal kvalitativa förbättringar av en AGI på mänsklig nivå resultera i en "kvalitetssuperintelligens", kanske resultera i en AGI lika långt över oss i intelligens som människor är över icke-mänskliga apor. Antalet neuroner i en mänsklig hjärna begränsas av kraniell volym och metabola begränsningar, medan antalet processorer i en superdator kan utökas på obestämd tid. En AGI behöver inte begränsas av mänskliga begränsningar på arbetsminnet och kan därför intuitivt kunna förstå mer komplexa relationer än vad människor kan. En AGI med specialiserat kognitivt stöd för teknik eller datorprogrammering skulle ha en fördel inom dessa områden, jämfört med människor som inte utvecklat några specialiserade mentala moduler för att specifikt hantera dessa domäner. Till skillnad från människor kan en AGI skapa kopior av sig själv och mixtra med kopiornas källkod för att försöka förbättra sina algoritmer ytterligare.
Möjlighet till ovänlig AI före vänlig AI
Är stark AI i sig farligt?
Ett betydande problem är att ovänlig artificiell intelligens sannolikt är mycket lättare att skapa än vänlig AI. Även om båda kräver stora framsteg inom rekursiv optimeringsprocessdesign, kräver vänlig AI också förmågan att göra målstrukturer oföränderliga under självförbättring (eller så kan AI:n förvandla sig till något ovänligt) och en målstruktur som är i linje med mänskliga värderingar och inte genomgår instrumentell konvergens på sätt som automatiskt kan förstöra hela mänskligheten. En ovänlig AI kan å andra sidan optimera för en godtycklig målstruktur, som inte behöver vara oföränderlig under självmodifiering.
Den rena komplexiteten i mänskliga värdesystem gör det mycket svårt att göra AI:s motivation människovänliga. Om inte moralfilosofin ger oss en felfri etisk teori, kan en AI:s nyttofunktion möjliggöra många potentiellt skadliga scenarier som överensstämmer med en given etisk ram men inte "sunt förnuft". Enligt Eliezer Yudkowsky finns det liten anledning att anta att ett artificiellt utformat sinne skulle ha en sådan anpassning.
Odds för konflikt
Många forskare, inklusive evolutionspsykologen Steven Pinker , hävdar att en superintelligent maskin sannolikt kommer att samexistera fredligt med människor.
Rädslan för cybernetisk revolt bygger ofta på tolkningar av mänsklighetens historia, som är full av incidenter av förslavning och folkmord. Sådan rädsla härrör från en övertygelse om att konkurrenskraft och aggression är nödvändiga i varje intelligent varelse målsystem. Men sådan mänsklig konkurrenskraft härrör från den evolutionära bakgrunden till vår intelligens, där överlevnad och reproduktion av gener inför mänskliga och icke-mänskliga konkurrenter var det centrala målet. Enligt AI-forskaren Steve Omohundro kan en godtycklig intelligens ha godtyckliga mål: det finns ingen speciell anledning till att en artificiellt intelligent maskin (som inte delar mänsklighetens evolutionära sammanhang) skulle vara fientlig – eller vänlig – om inte dess skapare programmerar den att vara sådan och det är inte benägen eller kapabel att modifiera sin programmering. Men frågan kvarstår: vad skulle hända om AI-system kunde interagera och utvecklas (evolution betyder i detta sammanhang självmodifiering eller urval och reproduktion) och behöver konkurrera om resurser – skulle det skapa mål för självbevarande? AI:s mål om självbevarelsedrift kan vara i konflikt med vissa mål för människor.
Många forskare ifrågasätter sannolikheten för oväntad cybernetisk revolt som avbildas i science fiction som The Matrix , och hävdar att det är mer troligt att någon artificiell intelligens som är kraftfull nog att hota mänskligheten förmodligen skulle vara programmerad att inte attackera den. Pinker erkänner möjligheten av medvetna "dåliga aktörer", men konstaterar att i frånvaro av dåliga aktörer är oväntade olyckor inte ett betydande hot; Pinker hävdar att en kultur av ingenjörssäkerhet kommer att förhindra AI-forskare från att av misstag släppa lös elakartad superintelligens. Däremot hävdar Yudkowsky att mänskligheten är mindre sannolikt att hotas av medvetet aggressiva AI än av AI som programmerats så att deras mål oavsiktligt är oförenliga med mänsklig överlevnad eller välbefinnande (som i filmen I, Robot och i novellen " The Evitable Conflict "). Omohundro föreslår att dagens automationssystem inte är designade för säkerhet och att AI:er blint kan optimera smala hjälpfunktioner (säg att spela schack till varje pris), vilket leder dem till att söka självbevarelsedrift och eliminering av hinder, inklusive människor som kan vända dem av.
Försiktighetsåtgärder
AI -kontrollproblemet är frågan om hur man bygger en superintelligent agent som kommer att hjälpa dess skapare, samtidigt som man undviker att oavsiktligt bygga en superintelligens som kommer att skada dess skapare. Vissa forskare hävdar att lösningar på kontrollproblemet också kan hitta tillämpningar i befintlig icke-superintelligent AI.
Viktiga tillvägagångssätt för kontrollproblemet inkluderar alignment , som syftar till att anpassa AI-målsystem med mänskliga värderingar, och capability control , som syftar till att minska ett AI-systems förmåga att skada människor eller få kontroll. Ett exempel på "kapacitetskontroll" är att undersöka om en superintelligens AI framgångsrikt skulle kunna begränsas i en " AI-box ". Enligt Bostrom är sådana kapacitetskontrollförslag inte tillförlitliga eller tillräckliga för att lösa kontrollproblemet på lång sikt, utan kan potentiellt fungera som värdefulla komplement till anpassningsinsatser.
Varningar
Fysikern Stephen Hawking , Microsofts grundare Bill Gates och SpaceX -grundaren Elon Musk har uttryckt oro över möjligheten att AI kan utvecklas till den grad att människor inte kunde kontrollera det, med Hawking som teoretiserat att detta kan "betyda slutet på mänskligheten". Stephen Hawking sa 2014 att "Framgång med att skapa AI skulle vara den största händelsen i mänsklighetens historia. Tyvärr kan det också bli den sista, om vi inte lär oss hur vi ska undvika riskerna." Hawking trodde att under de kommande decennierna skulle AI kunna erbjuda "oöverskådliga fördelar och risker" som "teknik som överlistar finansmarknaderna , utmanar mänskliga forskare, utmanipulerar mänskliga ledare och utvecklar vapen som vi inte ens kan förstå." I januari 2015 Nick Bostrom tillsammans med Stephen Hawking, Max Tegmark , Elon Musk, Lord Martin Rees , Jaan Tallinn och många AI-forskare för att underteckna Future of Life Institutes öppna brev där han talade om de potentiella riskerna och fördelarna med artificiell intelligens . Undertecknarna "tror att forskning om hur man gör AI-system robusta och fördelaktiga är både viktig och läglig, och att det finns konkreta forskningsriktningar som kan eftersträvas idag."
Förebyggande genom AI-anpassning
Se även
- Filosofi om artificiell intelligens
- kapprustning med artificiell intelligens
- Autonom robot
- Cyberokrati
- Effektiv altruism
- Existentiell risk från artificiell allmän intelligens
- Future of Humanity Institute
- Global katastrofrisk (existentiell risk)
- Regering efter algoritm
- Människans utrotning
- Maskinetik
- Maskininlärning / Deep learning
- Transhumanism
- Självreplikation
- Teknofobi
- Teknisk singularitet
Anteckningar
externa länkar
- Automation, inte dominans: Hur robotar kommer att ta över vår värld (en positiv syn på robot- och AI-integrering i samhället)
- Machine Intelligence Research Institute : officiell MIRI (tidigare Singularity Institute for Artificial Intelligence) webbplats
- Lifeboat Foundation AIShield (För att skydda mot ovänlig AI)
- Ted talk: Kan vi bygga AI utan att tappa kontrollen över det?