Artificiell intelligens

Artificiell intelligens ( AI ) är intelligens - att uppfatta, syntetisera och härleda information - som demonstreras av maskiner , i motsats till intelligens som visas av icke-mänskliga djur och människor . Exempel på uppgifter där detta görs är taligenkänning, datorseende, översättning mellan (naturliga) språk samt andra kartläggningar av indata.

AI-applikationer inkluderar avancerade webbsökmotorer (t.ex. Google Search ), rekommendationssystem (används av YouTube , Amazon och Netflix ), förståelse av mänskligt tal (som Siri och Alexa ), självkörande bilar (t.ex. Waymo ), generativa eller kreativa verktyg ( ChatGPT och AI art ), automatiserat beslutsfattande och tävlande på högsta nivå inom strategiska spelsystem (som schack och Go ).

När maskiner blir alltmer kapabla tas uppgifter som anses kräva "intelligens" ofta bort från definitionen av AI, ett fenomen som kallas AI-effekten . Till exempel optisk teckenigenkänning ofta utesluten från saker som anses vara AI, eftersom det har blivit en rutinteknik.

Artificiell intelligens grundades som en akademisk disciplin 1956 och har under åren sedan upplevt flera vågor av optimism, följt av besvikelse och förlust av finansiering (känd som en "AI-vinter"), följt av nya tillvägagångssätt, framgång och förnyad finansiering . AI-forskning har prövat och förkastat många olika tillvägagångssätt sedan dess grundande, inklusive simulering av hjärnan, modellering av mänskliga problemlösningar , formell logik , stora databaser med kunskap och imitation av djurs beteende. Under de första decennierna av 2000-talet har mycket matematisk-statistisk maskininlärning dominerat området, och denna teknik har visat sig vara mycket framgångsrik och hjälpt till att lösa många utmanande problem inom industrin och den akademiska världen.

De olika underområdena av AI-forskning är centrerade kring särskilda mål och användningen av särskilda verktyg. De traditionella målen för AI-forskning inkluderar resonemang , kunskapsrepresentation , planering , inlärning , naturlig språkbehandling , perception och förmågan att flytta och manipulera objekt. Allmän intelligens (förmågan att lösa ett godtyckligt problem) är bland fältets långsiktiga mål. För att lösa dessa problem har AI-forskare anpassat och integrerat ett brett utbud av problemlösningstekniker – inklusive sök- och matematisk optimering, formell logik, artificiella neurala nätverk och metoder baserade på statistik , sannolikhet och ekonomi . AI bygger också på datavetenskap , psykologi , lingvistik , filosofi och många andra områden.

Fältet grundades på antagandet att mänsklig intelligens "kan beskrivas så exakt att en maskin kan fås att simulera den". Detta väckte filosofiska argument om sinnet och de etiska konsekvenserna av att skapa konstgjorda varelser utrustade med mänsklig-liknande intelligens; dessa frågor har tidigare utforskats av myter , fiktion och filosofi sedan antiken. Datavetare och filosofer har sedan dess föreslagit att AI kan bli en existentiell risk för mänskligheten om dess rationella kapacitet inte styrs mot fördelaktiga mål.

Historia

Silverdidragma från Kreta föreställande Talos , en uråldrig mytisk automat med artificiell intelligens

Konstgjorda varelser med intelligens dök upp som berättande redskap under antiken och har varit vanliga i fiktion, som i Mary Shelleys Frankenstein eller Karel Čapeks RUR Dessa karaktärer och deras öden väckte många av samma frågor som nu diskuteras inom artificiell intelligenss etik .

Studiet av mekaniska eller "formella" resonemang började med filosofer och matematiker under antiken. Studiet av matematisk logik ledde direkt till Alan Turings teori om beräkning , som föreslog att en maskin, genom att blanda symboler så enkla som "0" och "1", kunde simulera vilken matematisk deduktion som helst. Denna insikt om att digitala datorer kan simulera vilken process som helst av formella resonemang kallas för Church–Turing-uppsatsen . Detta, tillsammans med samtidiga upptäckter inom neurobiologi , informationsteori och cybernetik , fick forskare att överväga möjligheten att bygga en elektronisk hjärna. Det första verket som nu allmänt erkänts som AI var McCullouch och Pitts formella design från 1943 för Turing-kompletta "konstgjorda neuroner".

På 1950-talet uppstod två visioner för hur man uppnår maskinintelligens. En vision, känd som Symbolic AI eller GOFAI , var att använda datorer för att skapa en symbolisk representation av världen och system som kunde resonera om världen. Förespråkarna inkluderade Allen Newell , Herbert A. Simon och Marvin Minsky . Nära förknippad med detta tillvägagångssätt var den "heuristiska sökningen" -metoden, som liknade intelligens med ett problem med att utforska ett utrymme av möjligheter för svar.

Den andra visionen, känd som det konnektionistiska tillvägagångssättet , försökte uppnå intelligens genom lärande. Förespråkare av detta tillvägagångssätt, mest framträdande Frank Rosenblatt , försökte koppla Perceptron på sätt inspirerade av anslutningar av neuroner. James Manyika och andra har jämfört de två tillvägagångssätten till sinnet (Symbolic AI) och hjärnan (connectionist). Manyika hävdar att symboliska tillvägagångssätt dominerade strävan efter artificiell intelligens under denna period, delvis på grund av dess koppling till intellektuella traditioner hos Descartes , Boole , Gottlob Frege , Bertrand Russell och andra. Connectionistiska tillvägagångssätt baserade på cybernetik eller artificiella neurala nätverk sköts till bakgrunden men har fått ny framträdande plats under de senaste decennierna.

Området AI-forskning föddes vid en workshop vid Dartmouth College 1956. Deltagarna blev grundare och ledare för AI-forskning. De och deras elever producerade program som pressen beskrev som "häpnadsväckande": datorer lärde sig pjässtrategier , löste ordproblem i algebra, bevisade logiska satser och pratade engelska.

I mitten av 1960-talet finansierades forskningen i USA kraftigt av försvarsdepartementet och laboratorier hade etablerats runt om i världen.

Forskare på 1960- och 1970-talen var övertygade om att symboliska tillvägagångssätt så småningom skulle lyckas skapa en maskin med artificiell allmän intelligens och ansåg att detta var målet för deras område. Herbert Simon förutspådde, "maskiner kommer att kunna, inom tjugo år, göra vilket arbete en människa kan göra". Marvin Minsky instämde och skrev, "inom en generation ... kommer problemet med att skapa "artificiell intelligens" att vara löst".

De hade inte insett svårigheten med några av de återstående uppgifterna. Framstegen avtog och 1974, som svar på kritiken av Sir James Lighthill och pågående påtryckningar från den amerikanska kongressen för att finansiera mer produktiva projekt, avbröt både USA:s och brittiska regeringar den utforskande forskningen inom AI. De närmaste åren skulle senare kallas en " AI-vinter ", en period då det var svårt att få finansiering för AI-projekt.

I början av 1980-talet återupplivades AI-forskningen av den kommersiella framgången med expertsystem , en form av AI-program som simulerade mänskliga experters kunskap och analytiska färdigheter. År 1985 hade marknaden för AI nått över en miljard dollar. Samtidigt inspirerade Japans femte generationens datorprojekt de amerikanska och brittiska regeringarna att återställa finansieringen för akademisk forskning . Men med början med kollapsen av Lisp Machine -marknaden 1987, föll AI återigen i vanrykte, och en andra, mer långvarig vinter började.

Många forskare började tvivla på att det symboliska tillvägagångssättet skulle kunna imitera alla processer av mänsklig kognition, särskilt perception , robotik, inlärning och mönsterigenkänning . Ett antal forskare började undersöka "subsymboliska" tillvägagångssätt för specifika AI-problem. Robotforskare , som Rodney Brooks , förkastade symbolisk AI och fokuserade på de grundläggande tekniska problemen som skulle tillåta robotar att röra sig, överleva och lära sig sin miljö.

Intresset för neurala nätverk och " connectionism " återupplivades av Geoffrey Hinton , David Rumelhart och andra i mitten av 1980-talet. Mjuka beräkningsverktyg utvecklades på 1980-talet, såsom neurala nätverk , luddiga system , grå systemteori , evolutionära beräkningar och många verktyg hämtade från statistik eller matematisk optimering .

AI återställde gradvis sitt rykte i slutet av 1990-talet och början av 2000-talet genom att hitta specifika lösningar på specifika problem. Det snäva fokuset gjorde det möjligt för forskare att producera verifierbara resultat, utnyttja mer matematiska metoder och samarbeta med andra områden (som statistik , ekonomi och matematik ). År 2000 användes lösningar som utvecklats av AI-forskare i stor utsträckning, även om de på 1990-talet sällan beskrevs som "artificiell intelligens".

Snabbare datorer , algoritmiska förbättringar och tillgång till stora mängder data möjliggjorde framsteg inom maskininlärning och perception; datahungriga för djupinlärning började dominera riktmärken för noggrannhet runt 2012 . Enligt Bloombergs Jack Clark var 2015 ett milstolpeår för artificiell intelligens, med antalet programvaruprojekt som använder AI inom Google ökade från en "sporadisk användning" 2012 till mer än 2 700 projekt. Han tillskrev detta till en ökning av prisvärda neurala nätverk , på grund av en ökning av molnbaserad infrastruktur och till en ökning av forskningsverktyg och datauppsättningar.

I en undersökning från 2017 rapporterade ett av fem företag att de hade "integrerat AI i vissa erbjudanden eller processer". Mängden forskning om AI (mätt i totala publikationer) ökade med 50 % under åren 2015–2019.

Många akademiska forskare blev oroliga över att AI inte längre strävade efter det ursprungliga målet att skapa mångsidiga, fullt intelligenta maskiner. Mycket av aktuell forskning involverar statistisk AI, som överväldigande används för att lösa specifika problem, även mycket framgångsrika tekniker som djupinlärning . Denna oro har lett till underområdet artificiell allmän intelligens (eller "AGI"), som hade flera välfinansierade institutioner på 2010-talet.

Mål

Det allmänna problemet med att simulera (eller skapa) intelligens har delats upp i delproblem. Dessa består av särskilda egenskaper eller förmågor som forskare förväntar sig att ett intelligent system ska visa. De egenskaper som beskrivs nedan har fått mest uppmärksamhet.

Resonemang, problemlösning

Tidiga forskare utvecklade algoritmer som imiterade steg-för-steg-resonemang som människor använder när de löser pussel eller gör logiska slutsatser. I slutet av 1980- och 1990-talen hade AI-forskningen utvecklat metoder för att hantera osäker eller ofullständig information, med hjälp av begrepp från sannolikhet och ekonomi .

Många av dessa algoritmer visade sig vara otillräckliga för att lösa stora resonemangsproblem eftersom de upplevde en "kombinatorisk explosion": de blev exponentiellt långsammare när problemen blev större. Även människor använder sällan det steg-för-steg-avdrag som tidig AI-forskning kunde modellera. De löser de flesta av sina problem med snabba, intuitiva bedömningar.

Kunskapsrepresentation

En ontologi representerar kunskap som en uppsättning begrepp inom en domän och relationerna mellan dessa begrepp.

Kunskapsrepresentation och kunskapsteknik tillåter AI-program att besvara frågor intelligent och göra slutsatser om verkliga fakta.

En representation av "vad som finns" är en ontologi : uppsättningen av objekt, relationer, begrepp och egenskaper som formellt beskrivs så att mjukvaruagenter kan tolka dem. De mest allmänna ontologierna kallas övre ontologier , som försöker ge en grund för all annan kunskap och fungerar som förmedlare mellan domänontologier som täcker specifik kunskap om en viss kunskapsdomän ( intresseområde eller orosområde). Ett verkligt intelligent program skulle också behöva tillgång till sunt förnuft kunskap; den uppsättning fakta som en genomsnittlig person känner till. semantik beskrivningslogik , såsom Web Ontology Language .

AI-forskning har utvecklat verktyg för att representera specifika domäner, såsom objekt, egenskaper, kategorier och relationer mellan objekt; situationer, händelser, tillstånd och tid; orsaker och effekter; kunskap om kunskap (vad vi vet om vad andra människor vet);. standardresonemang (saker som människor antar är sanna tills de berättas annorlunda och kommer att förbli sanna även när andra fakta förändras); såväl som andra domäner. Bland de svåraste problemen inom AI är: bredden av kunskap om sunt förnuft (antalet atomfakta som den genomsnittliga personen känner till är enormt); och den subsymboliska formen av mest sunt förnuft kunskap (mycket av vad folk vet representeras inte som "fakta" eller "påståenden" som de skulle kunna uttrycka verbalt).

Formella kunskapsrepresentationer används i innehållsbaserad indexering och hämtning, scentolkning, kliniskt beslutsstöd, kunskapsupptäckt (mining "intressanta" och handlingsbara slutsatser från stora databaser) och andra områden.

Inlärning

Maskininlärning (ML), ett grundläggande koncept för AI-forskning sedan fältets start, är studiet av datoralgoritmer som förbättras automatiskt genom erfarenhet.

Oövervakat lärande hittar mönster i en ström av input.

Övervakat lärande kräver att en människa märker indata först och finns i två huvudvarianter: klassificering och numerisk regression . Klassificering används för att avgöra vilken kategori något hör hemma i – programmet ser ett antal exempel på saker från flera kategorier och lär sig att klassificera nya input. Regression är försöket att producera en funktion som beskriver förhållandet mellan ingångar och utgångar och förutsäger hur utsignalerna ska förändras när ingångarna förändras. Både klassificerare och regressionsinlärare kan ses som "funktionsapproximatorer" som försöker lära sig en okänd (möjligen implicit) funktion; till exempel kan en skräppostklassificerare ses som att lära sig en funktion som mappar från texten i ett e-postmeddelande till en av två kategorier, "spam" eller "inte skräppost".

I förstärkningsinlärning belönas agenten för bra svar och straffas för dåliga. Agenten klassificerar sina svar för att bilda en strategi för att verka i sitt problemområde.

Överföring av lärande är när kunskapen från ett problem tillämpas på ett nytt problem.

Beräkningslärandeteori kan bedöma elever genom beräkningskomplexitet , genom provkomplexitet (hur mycket data som krävs) eller genom andra föreställningar om optimering .

Naturlig språkbehandling

Ett parseträd representerar den syntaktiska strukturen av en mening enligt någon formell grammatik .

Natural Language Processing (NLP) gör att maskiner kan läsa och förstå mänskligt språk. Ett tillräckligt kraftfullt bearbetningssystem för naturligt språk skulle möjliggöra användargränssnitt för naturliga språk och inhämtning av kunskap direkt från mänskligt skrivna källor, såsom nyhetssändningar. Några enkla tillämpningar av NLP inkluderar informationshämtning , svar på frågor och maskinöversättning .

Symbolisk AI använde formell syntax för att översätta meningarnas djupa struktur till logik . Detta misslyckades med att skapa användbara applikationer, på grund av svårhanterliga och breda kunskap om sunt förnuft. Moderna statistiska tekniker inkluderar samtidiga förekomstfrekvenser (hur ofta ett ord förekommer nära ett annat), "Sökordsfläckning" (söker efter ett visst ord för att hämta information), transformatorbaserad djupinlärning ( som hittar mönster i text) och andra. De har uppnått acceptabel noggrannhet på sid- eller styckenivå och skulle senast 2019 kunna generera sammanhängande text.

Uppfattning

Funktionsdetektering (bilden: kantdetektering ) hjälper AI att komponera informativa abstrakta strukturer av rådata.

Maskinuppfattning är förmågan att använda indata från sensorer (som kameror, mikrofoner, trådlösa signaler och aktiva lidar- , ekolods-, radar- och taktila sensorer ) för att härleda aspekter av världen. Tillämpningar inkluderar taligenkänning , ansiktsigenkänning och objektigenkänning . Datorseende är förmågan att analysera visuell input.

Social intelligens

Kismet , en robot med rudimentära sociala färdigheter

Affective computing är ett tvärvetenskapligt paraply som omfattar system som känner igen, tolkar, bearbetar eller simulerar mänsklig känsla, känsla och humör . Till exempel är vissa virtuella assistenter programmerade att prata konversation eller till och med skämta humoristiskt; det får dem att framstå som mer känsliga för den känslomässiga dynamiken i mänsklig interaktion, eller för att på annat sätt underlätta interaktion mellan människa och dator . Detta tenderar dock att ge naiva användare en orealistisk uppfattning om hur intelligenta befintliga datoragenter faktiskt är. Måttliga framgångar relaterade till affective computing inkluderar textuell sentimentanalys och, på senare tid, multimodal sentimentanalys ), där AI klassificerar effekterna som visas av ett videofilmat ämne.

Allmän intelligens

En maskin med allmän intelligens kan lösa en mängd olika problem med bredd och mångsidighet som liknar mänsklig intelligens. Det finns flera konkurrerande idéer om hur man utvecklar artificiell allmän intelligens. Hans Moravec och Marvin Minsky menar att arbete inom olika individuella domäner kan integreras i ett avancerat multiagentsystem eller kognitiv arkitektur med allmän intelligens. Pedro Domingos hoppas att det finns en konceptuellt okomplicerad, men matematiskt svår, " mästaralgoritm " som kan leda till AGI. Andra tror att antropomorfa egenskaper som en konstgjord hjärna eller simulerad barnutveckling en dag kommer att nå en kritisk punkt där allmän intelligens kommer fram .

Verktyg

Sök och optimering

AI kan lösa många problem genom att intelligent söka igenom många möjliga lösningar. Resonemang kan reduceras till att utföra en sökning. Till exempel kan logiska bevis ses som att söka efter en väg som leder från premisser till slutsatser , där varje steg är tillämpningen av en slutledningsregel . Planeringsalgoritmer söker igenom träd av mål och delmål och försöker hitta en väg till ett mål, en process som kallas medel-ändamålsanalys . Robotalgoritmer för att flytta lemmar och greppa föremål använder lokala sökningar i konfigurationsutrymmet .

Enkla uttömmande sökningar är sällan tillräckliga för de flesta verkliga problem: sökutrymmet ( antalet platser att söka) växer snabbt till astronomiska siffror . Resultatet är en sökning som är för långsam eller aldrig slutförs. Lösningen för många problem är att använda " heuristik " eller "tumregler" som prioriterar val till förmån för dem som är mer benägna att nå ett mål och att göra det i ett kortare antal steg. I vissa sökmetoder kan heuristik också tjäna till att eliminera vissa val som sannolikt inte leder till ett mål (kallas " beskärning av sökträdet "). Heuristik förser programmet med en "bästa gissning" för den väg som lösningen ligger på. Heuristik begränsar sökningen efter lösningar till en mindre provstorlek.

En helt annan typ av sökning blev framträdande på 1990-talet, baserad på den matematiska teorin om optimering . För många problem är det möjligt att börja sökningen med någon form av en gissning och sedan förfina gissningen stegvis tills inga fler justeringar kan göras. Dessa algoritmer kan visualiseras som blind backe : vi börjar söka på en slumpmässig punkt i landskapet, och sedan, med hopp eller steg, fortsätter vi att röra oss uppåt tills vi når toppen. Andra relaterade optimeringsalgoritmer inkluderar slumpmässig optimering , strålsökning och metaheuristik som simulerad glödgning . Evolutionär beräkning använder en form av optimeringssökning. Till exempel kan de börja med en population av organismer (gissningarna) och sedan tillåta dem att mutera och rekombinera, välja bara de starkaste för att överleva varje generation (förfina gissningarna). Klassiska evolutionära algoritmer inkluderar genetiska algoritmer , genuttrycksprogrammering och genetisk programmering . Alternativt kan distribuerade sökprocesser samordnas via svärmintelligensalgoritmer . Två populära svärmalgoritmer som används vid sökning är partikelsvärmsoptimering (inspirerad av fågelflockning ) och myrkolonioptimering (inspirerad av myrspår ).

Logik

Logik används för kunskapsrepresentation och problemlösning, men den kan appliceras på andra problem också. Till exempel satplan -algoritmen logik för planering och induktiv logikprogrammering är en metod för inlärning .

Flera olika former av logik används i AI-forskning. Propositionell logik involverar sanningsfunktioner som "eller" och "inte". Första ordningens logik lägger till kvantifierare och predikat och kan uttrycka fakta om objekt, deras egenskaper och deras relationer med varandra. Fuzzy logic tilldelar en "grad av sanning" (mellan 0 och 1) till vaga påståenden som "Alice är gammal" (eller rik, eller lång eller hungrig), som är för språkligt oprecisa för att vara helt sanna eller falska. Default logics , non-monotonic logics and circumscription är former av logik utformade för att hjälpa till med standardresonemang och kvalificeringsproblemet . Flera förlängningar av logik har designats för att hantera specifika kunskapsområden , såsom beskrivningslogik ; situationskalkyl , händelsekalkyl och flytande kalkyl (för att representera händelser och tid); kausal kalkyl ; troskalkyl (trorevision) ; och modal logik . Logiker för att modellera motsägelsefulla eller inkonsekventa uttalanden som uppstår i system med flera agenter har också utformats, såsom parakonsekventa logiker .

Probabilistiska metoder för osäkra resonemang

Förväntningsmaximerande klustring av Old Faithful -utbrottsdata startar från en slumpmässig gissning men konvergerar sedan framgångsrikt till en exakt klustring av de två fysiskt distinkta utbrottssätten.

Många problem inom AI (inklusive resonemang, planering, inlärning, perception och robotik) kräver att agenten arbetar med ofullständig eller osäker information. AI-forskare har tagit fram ett antal verktyg för att lösa dessa problem med metoder från sannolikhetsteori och ekonomi. Bayesianska nätverk är ett mycket allmänt verktyg som kan användas för olika problem, inklusive resonemang (med den Bayesianska slutledningsalgoritmen ), inlärning (med förväntningsmaximeringsalgoritmen ), planering (med hjälp av beslutsnätverk ) och perception (med dynamiska Bayesianska nätverk ). Probabilistiska algoritmer kan också användas för att filtrera, förutsäga, utjämna och hitta förklaringar till dataströmmar, vilket hjälper perceptionssystem att analysera processer som inträffar över tid (t.ex. dolda Markov-modeller eller Kalman-filter ).

Ett nyckelbegrepp från vetenskapen om ekonomi är " nytta ", ett mått på hur värdefullt något är för en intelligent agent. Exakta matematiska verktyg har utvecklats som analyserar hur en agent kan göra val och planera, med hjälp av beslutsteori , beslutsanalys och informationsvärdeteori. Dessa verktyg inkluderar modeller som Markovs beslutsprocesser , dynamiska beslutsnätverk , spelteori och mekanismdesign .

Klassificerare och statistiska inlärningsmetoder

De enklaste AI-applikationerna kan delas in i två typer: klassificerare ("om glänsande så diamant") och kontroller ("om diamant så plocka upp"). Kontroller klassificerar dock även villkor innan de sluter sig till åtgärder, och därför utgör klassificering en central del av många AI-system. Klassificerare är funktioner som använder mönstermatchning för att bestämma den närmaste matchningen. De kan ställas in enligt exempel, vilket gör dem mycket attraktiva för användning i AI. Dessa exempel är kända som observationer eller mönster. I övervakat lärande tillhör varje mönster en viss fördefinierad klass. En klass är ett beslut som måste fattas. Alla observationer i kombination med deras klassetiketter kallas en datamängd. När en ny observation tas emot klassificeras den observationen baserat på tidigare erfarenheter.

En klassificerare kan tränas på olika sätt; det finns många metoder för statistisk och maskininlärning . Beslutsträdet är den enklaste och mest använda symboliska maskininlärningsalgoritmen . K-nearest neighbor-algoritmen var den mest använda analoga AI fram till mitten av 1990-talet. Kärnmetoder som stödvektormaskinen (SVM) fördrev k-närmaste granne på 1990-talet. Den naiva Bayes-klassificeraren är enligt uppgift den "mest använda eleven" på Google, delvis på grund av dess skalbarhet. Neurala nätverk används också för klassificering.

Klassificerarens prestanda beror i hög grad på egenskaperna hos de data som ska klassificeras, såsom datauppsättningens storlek, fördelning av prover över klasser, dimensionalitet och brusnivån. Modellbaserade klassificerare presterar bra om den antagna modellen är en extremt bra passform för den faktiska datan. Annars, om ingen matchande modell är tillgänglig, och om noggrannhet (snarare än hastighet eller skalbarhet) är det enda problemet, är den konventionella visdomen att diskriminerande klassificerare (särskilt SVM) tenderar att vara mer exakta än modellbaserade klassificerare som "naiva Bayes" på de flesta praktiska datamängder.

Artificiellt nervsystem

Ett neuralt nätverk är en sammankopplad grupp av noder, besläktad med det stora nätverket av neuroner i den mänskliga hjärnan .

Neurala nätverk inspirerades av neuronernas arkitektur i den mänskliga hjärnan. En enkel "neuron" N accepterar input från andra neuroner, som var och en, när den aktiveras (eller "avfyras"), avger en viktad "röst" för eller emot om neuron N själv ska aktiveras . Inlärning kräver en algoritm för att justera dessa vikter baserat på träningsdata; en enkel algoritm (kallad " eld tillsammans, koppla samman ") är att öka vikten mellan två anslutna neuroner när aktiveringen av en utlöser framgångsrik aktivering av en annan. Neuroner har ett kontinuerligt spektrum av aktivering; dessutom kan neuroner bearbeta indata på ett olinjärt sätt snarare än att väga enkla röster.

Moderna neurala nätverk modellerar komplexa samband mellan input och output och hittar mönster i data. De kan lära sig kontinuerliga funktioner och till och med digitala logiska operationer. Neurala nätverk kan ses som en typ av matematisk optimering – de utför gradientnedstigning på en multidimensionell topologi som skapades genom att träna nätverket. Den vanligaste träningstekniken är backpropagation- algoritmen. Andra inlärningstekniker för neurala nätverk är hebbisk inlärning ("elda tillsammans, koppla ihop"), GMDH eller kompetitivt lärande .

Huvudkategorierna av nätverk är acykliska eller framåtkopplade neurala nätverk (där signalen bara passerar i en riktning) och återkommande neurala nätverk (som tillåter feedback och korttidsminnen av tidigare ingångshändelser). Bland de mest populära feedforward-nätverken är perceptroner , flerskiktsperceptroner och radiella basnätverk .

Djup lärning

Representing Images on Multiple Layers of Abstraction in Deep Learning
Representerar bilder på flera lager av abstraktion i djupinlärning

Deep learning använder flera lager av neuroner mellan nätverkets ingångar och utgångar. De flera lagren kan successivt extrahera funktioner på högre nivå från den råa ingången. Till exempel, vid bildbehandling kan lägre lager identifiera kanter, medan högre lager kan identifiera begrepp som är relevanta för en människa, såsom siffror eller bokstäver eller ansikten. Deep learning har drastiskt förbättrat prestandan för program inom många viktiga underområden av artificiell intelligens, inklusive datorseende , taligenkänning , bildklassificering och andra.

Deep learning använder ofta konvolutionella neurala nätverk för många eller alla dess lager. I ett faltningslager får varje neuron input från endast ett begränsat område av det föregående lagret som kallas neurons receptiva fält . Detta kan avsevärt minska antalet viktade kopplingar mellan neuroner och skapar en hierarki som liknar organisationen av djurets visuella cortex.

I ett återkommande neuralt nätverk (RNN) kommer signalen att fortplanta sig genom ett lager mer än en gång; därför är en RNN ett exempel på djupinlärning. RNN kan tränas genom gradientnedstigning , men långtidsgradienter som sprids tillbaka kan "försvinna" (det vill säga de kan tendera till noll) eller "explodera" (det vill säga de kan tendera till oändligheten), kända som försvinnande gradientproblem . Långtidsminnestekniken ) kan förhindra detta i de flesta fall.

Specialiserade språk och hårdvara

Specialiserade språk för artificiell intelligens har utvecklats, som Lisp , Prolog , TensorFlow och många andra. Hårdvara som utvecklats för AI inkluderar AI-acceleratorer och neuromorfiska datorer .

Ansökningar

För detta projekt av konstnären Joseph Ayerle var AI tvungen att lära sig de typiska mönstren i färgerna och penseldragen hos renässansmålaren Raphael . Porträttet visar ansiktet på skådespelerskan Ornella Muti , "målat" av AI i stil med Raphael.

AI är relevant för alla intellektuella uppgifter. Moderna tekniker för artificiell intelligens är genomgående och är för många för att listas här. Ofta, när en teknik når vanlig användning, anses den inte längre som artificiell intelligens; detta fenomen beskrivs som AI-effekten .

På 2010-talet var AI-tillämpningar i hjärtat av de mest kommersiellt framgångsrika områdena av datoranvändning, och har blivit ett allmänt förekommande inslag i det dagliga livet. AI används i sökmotorer (som Google Search ), inriktad på onlineannonser , rekommendationssystem (som erbjuds av Netflix , YouTube eller Amazon ), driver internettrafik , riktad reklam ( AdSense , Facebook ), virtuella assistenter (som Siri eller Alexa ) , autonoma fordon ( inklusive drönare , ADAS och självkörande bilar ) , automatisk språköversättning ( Microsoft Translator , Google Translate ), ansiktsigenkänning ( Apples Face ID eller Microsofts DeepFace ), bildmärkning (används av Facebook , Apple ' s iPhoto och TikTok ), skräppostfiltrering och chatbots (som Chat GPT ).

Det finns också tusentals framgångsrika AI-applikationer som används för att lösa problem för specifika branscher eller institutioner. Några exempel är energilagring , deepfakes , medicinsk diagnos, militär logistik eller hantering av försörjningskedjan.

Spelande har varit ett test på AI:s styrka sedan 1950-talet. Deep Blue blev det första datorschackspelarsystemet som slog en regerande världsmästare i schack, Garry Kasparov , den 11 maj 1997. 2011, i en Jeopardy! frågesport utställningsmatch, IBM :s frågesvarssystem , Watson , besegrade de två största Jeopardy! mästarna, Brad Rutter och Ken Jennings , med en betydande marginal. I mars 2016 AlphaGo 4 av 5 Go -spel i en match med Go-mästaren Lee Sedol , och blev det första Go- datorspelsystemet som slog en professionell Go-spelare utan handikapp . Andra program hanterar spel med ofullständig information ; som för poker på övermänsklig nivå, Pluribus och Cepheus . DeepMind utvecklade på 2010-talet en "generaliserad artificiell intelligens" som kunde lära sig många olika Atari- spel på egen hand.

År 2020 matchade Natural Language Processing- system som det enorma GPT-3 (då det i särklass största artificiella neurala nätverket) mänsklig prestation på redan existerande riktmärken, om än utan att systemet uppnådde en sunt förnuft av innehållet i riktmärkena. DeepMinds AlphaFold 2 (2020) visade förmågan att i timmar snarare än månader uppskatta 3D-strukturen hos ett protein. Andra tillämpningar förutsäger resultatet av rättsliga avgöranden, skapar konst (som poesi eller målning) och bevisar matematiska teorem .

Smarta trafikljus

Artificiellt intelligenta trafikljus använder kameror med radar , akustiska ultraljudssensorer och prediktiva algoritmer för att förbättra trafikflödet

Smarta trafikljus har utvecklats på Carnegie Mellon sedan 2009. Professor Stephen Smith har startat ett företag sedan dess Surtrac som har installerat smarta trafikledningssystem i 22 städer. Det kostar cirka $20 000 per korsning att installera. Körtiden har minskat med 25 % och kötiden har minskat med 40 % i de korsningar den har installerats.

Immateriella rättigheter

AI-patentfamiljer för funktionella applikationskategorier och underkategorier. Datorseende representerar 49 procent av patentfamiljerna relaterade till en funktionell applikation 2016.

2019 rapporterade WIPO att AI var den mest produktiva framväxande teknologin när det gäller antalet patentansökningar och beviljade patent, Internet of things uppskattades vara störst i termer av marknadsstorlek. Den följdes, återigen i marknadsstorlek, av big data-teknik, robotteknik, AI, 3D-utskrift och den femte generationens mobiltjänster (5G). Sedan AI uppstod på 1950-talet har 340 000 AI-relaterade patentansökningar lämnats in av innovatörer och 1,6 miljoner vetenskapliga artiklar har publicerats av forskare, med majoriteten av alla AI-relaterade patentansökningar publicerade sedan 2013. Företag representerar 26 av de 30 bästa AI-patentsökande, med universitet eller offentliga forskningsorganisationer som står för de återstående fyra. Förhållandet mellan vetenskapliga artiklar och uppfinningar har minskat avsevärt från 8:1 2010 till 3:1 2016, vilket tillskrivs vara ett tecken på en förändring från teoretisk forskning till användning av AI-teknik i kommersiella produkter och tjänster. Maskininlärning är den dominerande AI-tekniken som avslöjas i patent och ingår i mer än en tredjedel av alla identifierade uppfinningar (134 777 maskininlärningspatent inlämnade för totalt 167 038 AI-patent inlämnade 2016), med datorseende som den mest populära funktionsapplikationen . AI-relaterade patent avslöjar inte bara AI-tekniker och applikationer, de hänvisar ofta också till ett applikationsområde eller industri. Tjugo applikationsområden identifierades 2016 och inkluderade, i storleksordning: telekommunikation (15 procent), transport (15 procent), livs- och medicinska vetenskaper (12 procent) och personliga enheter, datorer och interaktion mellan människa och dator (11 procent) . Andra sektorer inkluderade bank, underhållning, säkerhet, industri och tillverkning, jordbruk och nätverk (inklusive sociala nätverk, smarta städer och Internet of things). IBM har den största portföljen av AI-patent med 8 290 patentansökningar, följt av Microsoft med 5 930 patentansökningar.

Filosofi

Definiera artificiell intelligens

Alan Turing skrev 1950 "Jag föreslår att man överväger frågan "kan maskiner tänka"?" Han rekommenderade att ändra frågan från om en maskin "tänker", till "om det är möjligt för maskiner att visa intelligent beteende eller inte". Han utarbetade Turing-testet , som mäter en maskins förmåga att simulera mänskliga samtal. Eftersom vi bara kan observera maskinens beteende spelar det ingen roll om den "faktiskt" tänker eller bokstavligen har ett "sinne". Turing konstaterar att vi inte kan bestämma dessa saker om andra människor men "det är vanligt att ha en artig konvention som alla tycker"

Russell och Norvig håller med Turing om att AI måste definieras i termer av "agerande" och inte "tänkande". De är dock kritiska till att testet jämför maskiner med människor . " Flygtekniska texter", skrev de, "definierar inte målet för deras område som att göra "maskiner som flyger så exakt som duvor att de kan lura andra duvor." " AI-grundaren John McCarthy höll med och skrev att "Artificiell intelligens är inte , per definition, simulering av mänsklig intelligens".

McCarthy definierar intelligens som "den beräkningsmässiga delen av förmågan att uppnå mål i världen." En annan AI-grundare, Marvin Minsky , definierar det på samma sätt som "förmågan att lösa svåra problem". Dessa definitioner ser intelligens i termer av väldefinierade problem med väldefinierade lösningar, där både problemets svårighet och programmets prestanda är direkta mått på maskinens "intelligens" - och ingen annan filosofisk diskussion krävs, eller kanske inte ens är möjligt.

En definition som också har antagits av Google [ bättre källa behövs ] - stor praktiker inom området AI. Denna definition fastställde systemens förmåga att syntetisera information som en manifestation av intelligens, på samma sätt som den definieras inom biologisk intelligens.

Utvärdera metoder för AI

Ingen etablerad förenande teori eller paradigm har väglett AI-forskning under större delen av dess historia. Den oöverträffade framgången med statistisk maskininlärning på 2010-talet översköljde alla andra tillvägagångssätt (så mycket att vissa källor, särskilt inom affärsvärlden, använder termen "artificiell intelligens" för att betyda "maskininlärning med neurala nätverk"). Detta tillvägagångssätt är mestadels subsymboliskt , snyggt , mjukt och smalt (se nedan). Kritiker hävdar att dessa frågor kan behöva ses över av framtida generationer av AI-forskare.

Symbolisk AI och dess gränser

Symbolisk AI (eller " GOFAI ") simulerade det medvetna resonemang på hög nivå som människor använder när de löser pussel, uttrycker juridiska resonemang och gör matematik. De var mycket framgångsrika i "intelligenta" uppgifter som algebra eller IQ-tester. På 1960-talet föreslog Newell och Simon hypotesen om fysiska symbolsystem: "Ett fysiskt symbolsystem har de nödvändiga och tillräckliga medlen för allmän intelligent handling."

Men det symboliska tillvägagångssättet misslyckades med många uppgifter som människor löser enkelt, som att lära sig, känna igen ett objekt eller sunt förnuft. Moravecs paradox är upptäckten att "intelligenta" uppgifter på hög nivå var lätta för AI, men "instinktiva" uppgifter på låg nivå var extremt svåra. Filosofen Hubert Dreyfus hade sedan 1960-talet hävdat att mänsklig expertis beror på omedveten instinkt snarare än medveten symbolmanipulation, och på att ha en "känsla" för situationen, snarare än explicit symbolisk kunskap. Även om hans argument hade förlöjligats och ignorerats när de först presenterades, kom så småningom AI-forskningen överens.

Problemet är inte löst: subsymboliskt resonemang kan göra många av samma outgrundliga misstag som mänsklig intuition gör, till exempel algoritmisk fördom . Kritiker som Noam Chomsky hävdar att fortsatt forskning om symbolisk AI fortfarande kommer att vara nödvändig för att uppnå allmän intelligens, delvis eftersom subsymbolisk AI är ett steg bort från förklarlig AI : det kan vara svårt eller omöjligt att förstå varför ett modernt statistiskt AI-program skapade ett särskilt beslut. Det framväxande området för neuro-symbolisk artificiell intelligens försöker överbrygga de två tillvägagångssätten.

Snyggt kontra tjusigt

"Neats" hoppas att intelligent beteende beskrivs med enkla, eleganta principer (som logik , optimering eller neurala nätverk ). "Scruffies" förväntar sig att det nödvändigtvis kräver att man löser ett stort antal orelaterade problem (särskilt inom områden som sunt förnuftsresonemang) . Denna fråga diskuterades aktivt under 70- och 80-talen, men på 1990-talet blev matematiska metoder och gedigna vetenskapliga standarder normen, en övergång som Russell och Norvig kallade "de prydligas seger".

Mjuk vs hård datoranvändning

Att hitta en bevisligen korrekt eller optimal lösning är svårlöst för många viktiga problem. Soft computing är en uppsättning tekniker, inklusive genetiska algoritmer , fuzzy logik och neurala nätverk , som är toleranta mot oprecision, osäkerhet, partiell sanning och approximation. Soft computing introducerades i slutet av 80-talet och de mest framgångsrika AI-programmen under 2000-talet är exempel på soft computing med neurala nätverk.

Smal kontra allmän AI

AI-forskare är delade om huruvida man ska sträva efter målen artificiell allmän intelligens och superintelligens (generell AI) direkt eller att lösa så många specifika problem som möjligt ( smal AI ) i hopp om att dessa lösningar ska leda indirekt till fältets långsiktiga mål. Allmän intelligens är svår att definiera och svår att mäta, och modern AI har haft mer verifierbara framgångar genom att fokusera på specifika problem med specifika lösningar. Det experimentella delområdet artificiell allmän intelligens studerar detta område uteslutande.

Maskinmedvetande, känsla och sinne

Sinnets filosofi vet inte om en maskin kan ha ett sinne , medvetande och mentala tillstånd , i samma mening som människor har. Denna fråga tar hänsyn till maskinens interna upplevelser snarare än dess yttre beteende. Mainstream AI-forskning anser att denna fråga är irrelevant eftersom den inte påverkar fältets mål. Stuart Russell och Peter Norvig observerar att de flesta AI-forskare "inte bryr sig om [filosofin om AI] - så länge programmet fungerar, bryr de sig inte om du kallar det en simulering av intelligens eller verklig intelligens." Frågan har dock blivit central i sinnesfilosofin. Det är också vanligtvis den centrala frågan i fråga om artificiell intelligens i fiktion .

Medvetande

David Chalmers identifierade två problem med att förstå sinnet, som han kallade medvetandets "hårda" och "enkla" problem. Det enkla problemet är att förstå hur hjärnan bearbetar signaler, planerar och kontrollerar beteendet. Det svåra problemet är att förklara hur det här känns eller varför det ska kännas som vad som helst. Mänsklig informationsbehandling är lätt att förklara, men mänsklig subjektiv upplevelse är svår att förklara. Det är till exempel lätt att föreställa sig en färgblind person som har lärt sig att identifiera vilka föremål i deras synfält som är röda, men det är inte klart vad som skulle krävas för att personen ska veta hur rött ser ut .

Computationalism och funktionalism

Computationalism är positionen i sinnets filosofi att det mänskliga sinnet är ett informationsbearbetningssystem och att tänkande är en form av datoranvändning. Computationalism hävdar att förhållandet mellan sinne och kropp är liknande eller identiskt med förhållandet mellan mjukvara och hårdvara och därmed kan vara en lösning på kropp-sinne- problemet . Denna filosofiska position inspirerades av AI-forskares och kognitionsforskares arbete på 1960-talet och föreslogs ursprungligen av filosoferna Jerry Fodor och Hilary Putnam .

Filosofen John Searle karakteriserade denna position som "stark AI" : "Den lämpligt programmerade datorn med rätt ingångar och utgångar skulle därmed ha ett sinne i exakt samma mening som människor har sinnen." Searle bestrider detta påstående med sitt kinesiska rumsargument, som försöker visa att även om en maskin perfekt simulerar mänskligt beteende, finns det fortfarande ingen anledning att anta att den också har ett sinne.

Roboträttigheter

Om en maskin har ett sinne och en subjektiv upplevelse, så kan den också ha känsla (förmågan att känna), och i så fall kan den också lida , och därmed skulle den ha rätt till vissa rättigheter. Alla hypotetiska roboträttigheter skulle ligga på ett spektrum med djurrättigheter och mänskliga rättigheter. Denna fråga har övervägts i skönlitteratur i århundraden, och övervägs nu av till exempel Kaliforniens Institute for the Future ; kritiker hävdar dock att diskussionen är för tidig.

Framtida

Superintelligens

En superintelligens, hyperintelligens eller övermänsklig intelligens är en hypotetisk agent som skulle ha intelligens som vida överträffar den hos det smartaste och mest begåvade mänskliga sinnet. Superintelligens kan också hänvisa till formen eller graden av intelligens som en sådan agent besitter.

Om forskning om artificiell allmän intelligens producerade tillräckligt intelligent programvara skulle den kanske kunna omprogrammera och förbättra sig själv. Den förbättrade mjukvaran skulle bli ännu bättre på att förbättra sig själv, vilket leder till rekursiv självförbättring . Dess intelligens skulle öka exponentiellt i en intelligensexplosion och kan dramatiskt överträffa människor. Science fiction-författaren Vernor Vinge kallade detta scenario för "singulariteten". Eftersom det är svårt eller omöjligt att veta gränserna för intelligens eller förmågan hos superintelligenta maskiner, är den tekniska singulariteten en händelse bortom vilken händelser är oförutsägbara eller till och med outgrundliga.

Robotdesignern Hans Moravec , cybernetikern Kevin Warwick och uppfinnaren Ray Kurzweil har förutspått att människor och maskiner kommer att smälta samman i framtiden till cyborgs som är mer kapabla och kraftfulla än båda. Denna idé, som kallas transhumanism, har rötter i Aldous Huxley och Robert Ettinger .

Edward Fredkin hävdar att "artificiell intelligens är nästa steg i evolutionen", en idé som först föreslogs av Samuel Butlers " Darwin among the Machines " så långt tillbaka som 1863, och som utvidgades av George Dyson i sin bok med samma namn i 1998.

Risker

Teknisk arbetslöshet

Tidigare har tekniken tenderat att öka snarare än att minska den totala sysselsättningen, men ekonomer erkänner att "vi är på okänt territorium" med AI. En undersökning bland ekonomer visade oenighet om huruvida den ökande användningen av robotar och AI kommer att orsaka en avsevärd ökning av långtidsarbetslösheten, men de är generellt överens om att det kan vara en nettovinst om produktivitetsvinster omfördelas . Subjektiva uppskattningar av risken varierar kraftigt; Carl Benedikt Frey uppskattar till exempel att 47 % av jobben i USA löper "hög risk" för potentiell automatisering, medan en OECD-rapport endast klassificerar 9 % av jobben i USA som "hög risk".

Till skillnad från tidigare vågor av automatisering kan många medelklassjobb elimineras av artificiell intelligens; The Economist konstaterar att "den oro som AI kunde göra med tjänstemannajobb som ångkraft gjorde med arbetare under den industriella revolutionen" är "värd att ta på allvar". Jobb med extrem risk sträcker sig från advokater till snabbmatskockar, medan efterfrågan på jobb sannolikt kommer att öka för vårdrelaterade yrken, allt från personlig vård till prästerskapet.

Dåliga skådespelare och beväpnad AI

AI tillhandahåller ett antal verktyg som är särskilt användbara för auktoritära regeringar: smart spionprogram , ansiktsigenkänning och röstigenkänning tillåter omfattande övervakning ; sådan övervakning tillåter maskininlärning att klassificera potentiella fiender till staten och kan förhindra dem från att gömma sig; rekommendationssystem kan rikta in propaganda och desinformation exakt för maximal effekt; deepfakes hjälper till att producera felaktig information; avancerad AI kan göra centraliserat beslutsfattande mer konkurrenskraftigt med liberala och decentraliserade system som marknader.

Terrorister, brottslingar och skurkstater kan använda andra former av beväpnad AI som avancerad digital krigföring och dödliga autonoma vapen . År 2015 rapporterades över femtio länder forska om slagfältsrobotar.

Maskinlärande AI kan också designa tiotusentals giftiga molekyler på några timmar.

Algoritmisk bias

AI-program kan bli partiska efter att ha lärt sig från verkliga data. Det introduceras vanligtvis inte av systemdesignerna utan lärs av programmet, och därför är programmerarna ofta omedvetna om att fördomen existerar. Bias kan oavsiktligt införas genom hur träningsdata väljs. Det kan också framgå av korrelationer : AI används för att klassificera individer i grupper och sedan göra förutsägelser förutsatt att individen kommer att likna andra medlemmar i gruppen. I vissa fall kan detta antagande vara orättvist. Ett exempel på detta är COMPAS , ett kommersiellt program som ofta används av amerikanska domstolar för att bedöma sannolikheten för att en tilltalad ska bli en återfallsförbrytare . ProPublica hävdar att den COMPAS-tilldelade återfallsrisknivån för svarta åtalade är mycket mer sannolikt att överskattas än den för vita åtalade, trots att programmet inte fick veta vilka raser de åtalade.

Hälsorättsfrågor kan också förvärras när många-till-många- kartläggningar görs utan att vidta åtgärder för att säkerställa rättvisa för befolkningar som riskerar att bli partiska. För närvarande finns inte aktiefokuserade verktyg och regleringar på plats för att säkerställa representation och användning av aktieapplikationer. Andra exempel där algoritmisk fördom kan leda till orättvisa resultat är när AI används för kreditvärdering eller uthyrning .

Vid sin 2022 konferens om rättvisa, ansvarsskyldighet och transparens (ACM FAccT 2022) presenterade och publicerade Association for Computing Machinery i Seoul, Sydkorea, resultat som rekommenderar att tills AI och robotiksystem har visat sig vara fria från partiska misstag, är de osäkra och användningen av självlärande neurala nätverk utbildade på stora, oreglerade källor till felaktiga internetdata bör begränsas.

Existentiell risk

Superintelligent AI kanske kan förbättra sig själv till den grad att människor inte kunde kontrollera den. Detta kan, som fysikern Stephen Hawking uttrycker det, " betyda slutet på mänskligheten" . Filosofen Nick Bostrom hävdar att tillräckligt intelligent AI, om den väljer åtgärder baserat på att uppnå något mål, kommer att uppvisa konvergent beteende som att skaffa resurser eller skydda sig själv från att stängas av. Om denna AI:s mål inte fullt ut återspeglar mänsklighetens, kan det behöva skada mänskligheten för att skaffa mer resurser eller förhindra sig själv från att stängas av, i slutändan för att bättre uppnå sitt mål. Han drar slutsatsen att AI utgör en risk för mänskligheten, hur ödmjuk eller " vänlig " dess uttalade mål än är. Statsvetaren Charles T. Rubin hävdar att "varje tillräckligt avancerad välvilja kan vara omöjlig att skilja från illvilja." Människor bör inte anta att maskiner eller robotar skulle behandla oss positivt eftersom det inte finns någon a priori anledning att tro att de skulle dela vårt moraliska system.

Åsikterna från experter och branschinsiders är blandade, med betydande fraktioner både berörda och obekymrade av risken från eventuell övermänskligt kapabel AI. Stephen Hawking , Microsofts grundare Bill Gates , historieprofessorn Yuval Noah Harari och SpaceX -grundaren Elon Musk har alla uttryckt allvarliga farhågor om AI:s framtid. Framstående tekniska titaner inklusive Peter Thiel ( Amazon Web Services ) och Musk har åtagit sig mer än 1 miljard dollar till ideella företag som förespråkar ansvarsfull AI-utveckling, som OpenAI och Future of Life Institute . Mark Zuckerberg (VD, Facebook) har sagt att artificiell intelligens är till hjälp i sin nuvarande form och kommer att fortsätta att hjälpa människor. Andra experter hävdar är att riskerna är tillräckligt långt i framtiden för att inte vara värda att forska i, eller att människor kommer att vara värdefulla ur en superintelligent maskins perspektiv. Rodney Brooks , i synnerhet, har sagt att "ondskefull" AI fortfarande är århundraden borta.

upphovsrätt

AI:s förmåga att fatta beslut väcker frågor om juridiskt ansvar och upphovsrättslig status för skapade verk. Dessa frågor förfinas i olika jurisdiktioner.

Etiska maskiner

Vänlig AI är maskiner som har designats från början för att minimera risker och för att göra val som gynnar människor. Eliezer Yudkowsky , som myntade termen, hävdar att utveckling av vänlig AI borde ha högre forskningsprioritet: det kan kräva en stor investering och det måste slutföras innan AI blir en existentiell risk.

Maskiner med intelligens har potential att använda sin intelligens för att fatta etiska beslut. Området maskinetik förser maskiner med etiska principer och procedurer för att lösa etiska dilemman. Maskinetik kallas också för maskinmoral , beräkningsetik eller beräkningsmoral, och grundades vid ett AAAI- symposium 2005.

Andra tillvägagångssätt inkluderar Wendell Wallachs "konstgjorda moraliska agenter" och Stuart J. Russells tre principer för att utveckla bevisligen fördelaktiga maskiner.

förordning

Regleringen av artificiell intelligens är utvecklingen av den offentliga sektorns policyer och lagar för att främja och reglera artificiell intelligens (AI); det är därför relaterat till den bredare regleringen av algoritmer. Det regulatoriska och politiska landskapet för AI är en framväxande fråga i jurisdiktioner globalt. Mellan 2016 och 2020 antog mer än 30 länder särskilda strategier för AI. De flesta EU-medlemsstater hade släppt nationella AI-strategier, liksom Kanada, Kina, Indien, Japan, Mauritius, Ryska federationen, Saudiarabien, Förenade Arabemiraten, USA och Vietnam. Andra var i färd med att utarbeta sin egen AI-strategi, inklusive Bangladesh, Malaysia och Tunisien. Global Partnership on Artificial Intelligence lanserades i juni 2020, och angav att AI måste utvecklas i enlighet med mänskliga rättigheter och demokratiska värderingar, för att säkerställa allmänhetens förtroende och tillit till tekniken. Henry Kissinger , Eric Schmidt och Daniel Huttenlocher publicerade ett gemensamt uttalande i november 2021 där de uppmanade till en regeringskommission för att reglera AI.

I fiktion

Själva ordet "robot" myntades av Karel Čapek i hans pjäs RUR från 1921 , titeln som står för "Rossum's Universal Robots".

Tankeförmåga konstgjorda varelser har dykt upp som berättande enheter sedan antiken, och har varit ett ihållande tema inom science fiction .

En vanlig trop i dessa verk började med Mary Shelleys Frankenstein , där en mänsklig skapelse blir ett hot mot sina herrar. Detta inkluderar verk som Arthur C. Clarkes och Stanley Kubricks 2001: A Space Odyssey (båda 1968), med HAL 9000 , den mordiska datorn som ansvarar för rymdskeppet Discovery One , samt The Terminator (1984) och The Matrix (1999 ) ). Däremot är de sällsynta lojala robotarna som Gort från The Day the Earth Stood Still (1951) och Bishop from Aliens (1986) mindre framträdande i populärkulturen.

Isaac Asimov introducerade robotikens tre lagar i många böcker och berättelser, framför allt "Multivac"-serien om en superintelligent dator med samma namn. Asimovs lagar tas ofta upp under lekmannadiskussioner om maskinetik; medan nästan alla forskare inom artificiell intelligens är bekanta med Asimovs lagar genom populärkulturen, anser de i allmänhet att lagarna är värdelösa av många skäl, en av dem är deras tvetydighet.

Transhumanism (sammansmältningen av människor och maskiner) utforskas i mangan Ghost in the Shell och science-fiction-serien Dune .

Flera verk använder AI för att tvinga oss att konfrontera den grundläggande frågan om vad som gör oss till människor, och visar oss konstgjorda varelser som har förmågan att känna och därmed lida. Detta förekommer i Karel Čapeks RUR , filmerna AI Artificial Intelligence och Ex Machina , samt romanen Do Androids Dream of Electric Sheep? , av Philip K. Dick . Dick anser att vår förståelse av mänsklig subjektivitet förändras av teknik skapad med artificiell intelligens.

Se även

Förklarande anteckningar

AI läroböcker

Dessa var de fyra mest använda AI-läroböckerna 2008:

Senare upplagor.

De två mest använda läroböckerna 2021. Öppna kursplan: Utforskaren

AI:s historia

Andra källor

Vidare läsning

  • Författare, David H., "Varför finns det fortfarande så många jobb? The History and Future of Workplace Automation" (2015) 29(3) Journal of Economic Perspectives 3.
  • Boden, Margaret , Mind As Machine , Oxford University Press , 2006.
  • Cukier, Kenneth , "Redo för robotar? How to Think about the Future of AI", Foreign Affairs , vol. 98, nr. 4 (juli/augusti 2019), s. 192–98. George Dyson , datahistoriker, skriver (i vad som kan kallas "Dysons lag") att "Varje system som är enkelt nog för att vara begripligt kommer inte att vara komplicerat nog att bete sig intelligent, medan vilket system som helst som är tillräckligt komplicerat för att bete sig intelligent kommer att vara för komplicerat för att förstå." (sid. 197.) Datavetaren Alex Pentland skriver: "Nuvarande AI-maskininlärningsalgoritmer är, i sin kärna, helt enkelt dumma. De fungerar, men de fungerar med rå kraft. " (sid. 198.)
  • Domingos, Pedro , "Our Digital Doubles: AI will serve our art, not control it", Scientific American , vol. 319, nr. 3 (september 2018), s. 88–93.
  • Gopnik, Alison , "Making AI More Human: Artificiell intelligens har iscensatt en väckelse genom att börja införliva det vi vet om hur barn lär sig", Scientific American , vol. 316, nr. 6 (juni 2017), s. 60–65.
  • Halpern, Sue, "The Human Costs of AI" (recension av Kate Crawford , Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence , Yale University Press, 2021, 327 s.; Simon Chesterman , We, the Robots ?: Regulating Artificial Intelligence and the Limits of the Law , Cambridge University Press, 2021, 289 s.; Keven Roose, Futureproof: 9 Rules for Humans in the Age of Automation , Random House, 217 s.; Erik J. Larson, The Myth of Artificial Intelligence: Why Computers Can't Think the Way We Do , Belknap Press / Harvard University Press, 312 s.), The New York Review of Books , vol. LXVIII, nr. 16 (21 oktober 2021), s. 29–31. "AI-träningsmodeller kan replikera förankrade sociala och kulturella fördomar . [...] Maskiner vet bara vad de vet från den data de har fått. [s. 30.] [A]rtificial general intelligence–maskinbaserad intelligens som matchar vår egen – är bortom kapaciteten för algoritmisk maskininlärning... 'Din hjärna är en del i ett bredare system som inkluderar din kropp, din miljö, andra människor och kultur som helhet.' [Även maskiner som behärskar de uppgifter de är utbildade att utföra kan inte hoppa över domäner. AIVA kan till exempel inte köra bil trots att den kan skriva musik (och skulle inte ens kunna göra det utan Bach och Beethoven [och andra kompositörer som AIVA är utbildad i])." (sid. 31.)
  • Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI , MIT Press.
  • Koch, Christof , "Proust bland maskinerna", Scientific American , vol. 321, nr. 6 (december 2019), s. 46–49. Christof Koch tvivlar på möjligheten för "intelligenta" maskiner att uppnå medvetande , eftersom "[även] de mest sofistikerade hjärnsimuleringarna är osannolikt att producera medvetna känslor ." (sid. 48.) Enligt Koch, "Om maskiner kan bli kännande [är viktigt] av etiska skäl. Om datorer upplever livet genom sina egna sinnen, slutar de att vara enbart ett medel till ett mål som bestäms av deras användbarhet att... Per GNW [ Global Neuronal Workspace- teorin] förvandlas de från bara objekt till subjekt... med en synvinkel ... När datorers kognitiva förmågor konkurrerar med mänsklighetens, kommer deras impuls att driva på juridiska och politiska förmågor. rättigheter kommer att bli oemotståndliga – rätten att inte bli raderad, att inte få sina minnen utplånade, att inte lida av smärta och förnedring Alternativet, förkroppsligat av IIT [Integrated Information Theory], är att datorer kommer att förbli bara supersofistikerade maskineri, spökliknande tomma skal, utan det vi värdesätter högst: känslan av själva livet." (sid. 49.)
  • Marcus, Gary , "Är jag människa?: Forskare behöver nya sätt att skilja artificiell intelligens från den naturliga sorten", Scientific American , vol. 316, nr. 3 (mars 2017), s. 58–63. En stötesten för AI har varit oförmågan till tillförlitlig disambiguering . Ett exempel är "problemet med disambiguation av pronomen": en maskin har inget sätt att avgöra till vem eller vad ett pronomen i en mening avser. (sid. 61.)
  • Gary Marcus , "Artificiellt förtroende: Även de nyaste, mest livliga systemen för artificiell allmän intelligens hindras av samma gamla problem", Scientific American , vol. 327, nr. 4 (oktober 2022), s. 42–45.
  • E McGaughey, "Kommer robotar att automatisera ditt jobb borta?" Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, del 2(3) Arkiverad 24 maj 2018 på Wayback Machine .
  • George Musser , " Artificiell fantasi : Hur maskiner kunde lära sig kreativitet och sunt förnuft , bland andra mänskliga egenskaper", Scientific American , vol. 320, nr. 5 (maj 2019), s. 58–63.
  • Myers, Courtney Boyd ed. (2009). "The AI ​​Report" Arkiverad 29 juli 2017 på Wayback Machine . Forbes juni 2009
  •   Raphael, Bertram (1976). Den tänkande datorn . WH Freeman och Co. ISBN 978-0716707233 . Arkiverad från originalet den 26 juli 2020 . Hämtad 22 augusti 2020 .
  • Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs , vol. 98, nr. 3 (maj/juni 2019), s. 135–44. "Dagens AI-teknologier är kraftfulla men opålitliga. Regelbaserade system kan inte hantera omständigheter som deras programmerare inte förutsåg. Inlärningssystem begränsas av de data som de tränades på. AI-fel har redan lett till tragedier. Avancerade autopilotfunktioner i bilar, även om de presterar bra under vissa omständigheter, har kört bilar utan förvarning in i lastbilar, betongbarriärer och parkerade bilar. I fel situation går AI-system från supersmarta till superdumma på ett ögonblick. När en fiende försöker manipulera och hacka en AI system är riskerna ännu större." (sid. 140.)
  • Serenko, Alexander (2010). "Utvecklingen av en AI-tidskriftsrankning baserad på den avslöjade preferensmetoden" ( PDF) . Journal of Informetrics . 4 (4): 447–59. doi : 10.1016/j.joi.2010.04.001 . Arkiverad (PDF) från originalet den 4 oktober 2013 . Hämtad 24 augusti 2013 .
  • Serenko, Alexander; Michael Dohan (2011). "Jämföra expertenkäten och citeringsmetoderna för rankning av tidskrifter: Exempel från området artificiell intelligens" ( PDF) . Journal of Informetrics . 5 (4): 629–49. doi : 10.1016/j.joi.2011.06.002 . Arkiverad (PDF) från originalet den 4 oktober 2013 . Hämtad 12 september 2013 .
  • Tom Simonite (29 december 2014). "2014 inom datoranvändning: genombrott inom artificiell intelligens" . MIT Technology Review . Arkiverad från originalet den 2 januari 2015.
  • Sun, R. & Bookman, L. (red.), Computational Architectures: Integrating Neural and Symbolic Processes . Kluwer Academic Publishers, Needham, MA. 1994.
  •       Taylor, Paul, "Insanely Complicated, Hopelessly Inadequate" (recension av Brian Cantwell Smith , The Promise of Artificial Intelligence: Reckoning and Judgment, MIT, 2019, ISBN 978-0262043045 , 157 s.; Gary Marcus och Ernest AI: Reboot Davis och Ernest Building Artificial Intelligence We Can Trust , Ballantine, 2019, ISBN 978-1524748258 , 304 s.; Judea Pearl och Dana Mackenzie, The Book of Why: The New Science of Cause and Effect , Penguin, 2019 , ISBN 978-24141pp .), London Review of Books , vol. 43, nr. 2 (21 januari 2021), s. 37–39. Paul Taylor skriver (s. 39): "Kanske finns det en gräns för vad en dator kan göra utan att veta att den manipulerar imperfekta representationer av en yttre verklighet."
  • Tooze, Adam , "Democracy and Its Discontents", The New York Review of Books , vol. LXVI, nr. 10 (6 juni 2019), s. 52–53, 56–57. "Demokrati har inget tydligt svar på den tankelösa driften av byråkratisk och teknologisk makt . Vi kan verkligen bevittna dess utvidgning i form av artificiell intelligens och robotik. På samma sätt, efter årtionden av allvarliga varningar, förblir miljöproblemet i grunden oåtgärdat .... Byråkratiskt övergrepp och miljökatastrofer är just den sortens långsamma existentiella utmaningar som demokratier hanterar mycket dåligt... Slutligen finns det hotet du jour: företag och den teknik de främjar." (sid. 56–57.)

externa länkar