Future of Life Institute

Koordinater :

Future of Life Institute
Förkortning FLI
Bildning mars 2014 ; 8 år sedan ( 2014-03 )
Grundare
Typ Ideellt forskningsinstitut
47-1052538
Rättslig status Aktiva
Syfte Minskning av existentiell risk , särskilt från avancerad artificiell intelligens
Plats
President
Max Tegmark
Hemsida futureoflife.org

The Future of Life Institute ( FLI ) är en ideell organisation som arbetar för att minska globala katastrofala och existentiella risker som mänskligheten står inför, särskilt existentiella risker från avancerad artificiell intelligens (AI). Institutets arbete består av tre huvuddelar: beviljande av anslag för riskreduktion, utbildningsverksamhet och opinionsbildning inom FN, USA:s regering och EU:s institutioner. Dess grundare inkluderar MIT- kosmologen Max Tegmark och Skypes medgrundare Jaan Tallinn , och dess rådgivare inkluderar entreprenören Elon Musk .

Uppdrag

Max Tegmark , professor vid MIT , en av grundarna och nuvarande ordförande för Future of Life Institute

FLI:s uppdrag är att minska globala katastrofala och existentiella risker från kraftfulla teknologier. FLI är särskilt fokuserat på de potentiella riskerna för mänskligheten från utvecklingen av mänsklig nivå eller superintelligent artificiell allmän intelligens (AGI), men arbetar också med risker från bioteknik, kärnvapen och klimatförändringar. Institutets arbete utgörs av bidragsgivning för riskminskning, utbildningsuppsökande och opinionsbildning inom FN, USA:s regering och EU:s institutioner.

Nyckelpersoner

Institutet grundades i mars 2014 av MIT -kosmologen Max Tegmark , Skypes medgrundare Jaan Tallinn , DeepMind -forskaren Viktoriya Krakovna, Tufts Universitys postdoktor Meia Chita-Tegmark och UCSC - fysikern Anthony Aguirre . Institutets rådgivare inkluderar datavetarna Stuart J. Russell och Francesca Rossi , biologen George Church , kosmologen Saul Perlmutter , astrofysikern Sandra Faber , teoretisk fysikern Frank Wilczek , entreprenören Elon Musk , och skådespelarna och vetenskapskommunikatörerna Alan Aldast samt co Morgan Freeman ( Stephen Hawking före sin död 2018).

Konferenser

2014 höll Future of Life Institute sitt öppningsevenemang på MIT : en paneldiskussion om "The Future of Technology: Benefits and Risks", modererad av Alan Alda . Paneldeltagarna var syntetisk biolog George Church , genetikern Ting Wu , ekonomen Andrew McAfee , fysikern och nobelpristagaren Frank Wilczek och Skypes medgrundare Jaan Tallinn .

Sedan 2015 har FLI anordnat tvåårskonferenser som samlar ledande AI-byggare från akademi och industri. Hittills har följande konferenser hållits:

  • Konferensen "The Future of AI: Opportunities and Challenges" i Puerto Rico (2015). Målet var att identifiera lovande forskningsriktningar som kan hjälpa till att maximera de framtida fördelarna med AI. På konferensen cirkulerade institutet ett öppet brev om AI-säkerhet som sedan undertecknades av Stephen Hawking , Elon Musk och många experter på artificiell intelligens.
  • Beneficial AI-konferensen i Asilomar, Kalifornien (2017), en privat sammankomst av vad The New York Times kallade "heavy hitters of AI" (inklusive Yann LeCun , Elon Musk och Nick Bostrom ). Institutet släppte en uppsättning principer för ansvarsfull AI-utveckling som kom ur diskussionen på konferensen, undertecknad av Yoshua Bengio , Yann LeCun och många andra AI-forskare. Dessa principer påverkade regleringen av artificiell intelligens och efterföljande initiativ, såsom OECD:s principer om artificiell intelligens.
  • Den fördelaktiga AGI-konferensen i Puerto Rico (2019). Detta möte fokuserade på långsiktiga frågor om att säkerställa att artificiell allmän intelligens är till nytta för mänskligheten.

Globalt forskningsprogram

FLI:s forskningsprogram startade 2015 med en initial donation på 10 miljoner dollar från Elon Musk. Till skillnad från typisk AI-forskning är detta program fokuserat på att göra AI säkrare eller mer fördelaktigt för samhället, snarare än bara mer kraftfullt. I denna första omgång delades totalt 7 miljoner dollar ut till 37 forskningsprojekt. I juli 2021 meddelade FLI att de skulle lansera ett nytt anslagsprogram på 25 miljoner dollar med finansiering från den rysk-kanadensiska programmeraren Vitalik Buterin .

I media

  • "Kampen för att definiera när AI är 'högrisk'" i Wired .
  • "Dödliga autonoma vapen finns, de måste förbjudas" i IEEE Spectrum .
  • "USA och allierade protesterar mot FN-samtal för att förbjuda kärnvapen" i The New York Times .
  • "Är artificiell intelligens ett hot?" i The Chronicle of Higher Education , inklusive intervjuer med FLI-grundarna Max Tegmark , Jaan Tallinn och Viktoriya Krakovna.
  • "But What Would the End of Humanity Mean for Me?", en intervju med Max Tegmark om idéerna bakom FLI i The Atlantic .
  • Michael del Castillo (15 januari 2015). "Startup branding döljer inte apokalyptiska undertoner av brev undertecknat av Elon Musk" . Upstart Business Journal .

Se även

externa länkar