Future of Humanity Institute

Future of Humanity Institute
Bildning 2005 ; 18 år sedan ( 2005 )
Syfte Undersök stora frågor om mänskligheten och dess framtidsutsikter
Huvudkontor Oxford , England
Direktör
Nick Boström
Föräldraorganisation
Filosofiska fakulteten , University of Oxford
Hemsida fhi.ox.ac.uk

The Future of Humanity Institute ( FHI ) är ett tvärvetenskapligt forskningscenter vid University of Oxford som undersöker stora frågor om mänskligheten och dess framtidsutsikter. Det grundades 2005 som en del av filosofiska fakulteten och Oxford Martin School . Dess direktör är filosofen Nick Bostrom och dess forskarpersonal inkluderar futuristen Anders Sandberg och Giving What We Can- grundaren Toby Ord .

Genom att dela kontor och i nära samarbete med Center for Effective Altruism , är institutets uttalade mål att fokusera forskningen där den kan göra störst positiv skillnad för mänskligheten på lång sikt. Den engagerar sig i en blandning av akademiska och uppsökande aktiviteter, i syfte att främja informerad diskussion och offentligt engagemang i myndigheter, företag, universitet och andra organisationer. Centrumets största forskningsfinansiärer inkluderar Amlin , Elon Musk , European Research Council , Future of Life Institute och Leverhulme Trust .

Historia

Nick Bostrom etablerade institutet i november 2005 som en del av Oxford Martin School, sedan James Martin 21st Century School. Mellan 2008 och 2010 var FHI värd för Global Catastrophic Risks-konferensen, skrev 22 akademiska tidskriftsartiklar och publicerade 34 kapitel i akademiska volymer. FHI-forskare har nämnts över 5 000 gånger i media och har gett policyråd vid World Economic Forum , till den privata och ideella sektorn (som Macarthur Foundation och Världshälsoorganisationen ), såväl som till statliga organ i Sverige, Singapore, Belgien, Storbritannien och USA. Bostrom och bioetikern Julian Savulescu publicerade också boken Human Enhancement i mars 2009. Senast har FHI fokuserat på farorna med avancerad artificiell intelligens (AI). Under 2014 publicerade dess forskare flera böcker om AI-risk, inklusive Stuart Armstrongs Smarter Than Us och Bostroms Superintelligence: Paths, Dangers, Strategies .

Under 2018 rekommenderade Open Philanthropy ett anslag på upp till cirka 13,4 miljoner pund till FHI under tre år, med en stor del villkorad av framgångsrik anställning.

Existentiell risk

Det största ämnet FHI har ägnat tid åt att utforska är global katastrofrisk , och i synnerhet existentiell risk. I en tidning från 2002 definierade Bostrom en "existentiell risk" som en "där ett ogynnsamt resultat antingen skulle förinta intelligent liv från jorden eller permanent och drastiskt inskränka dess potential". Detta inkluderar scenarier där mänskligheten inte skadas direkt, men den misslyckas med att kolonisera rymden och använda sig av det observerbara universums tillgängliga resurser i mänskligt värdefulla projekt, som diskuteras i Bostroms 2003 uppsats, "Astronomical Waste: The Opportunity Cost of Delayed Technological Development".

Bostrom och Milan Ćirkovićs bok Global Catastrophic Risks från 2008 samlar uppsatser om en mängd olika sådana risker, både naturliga och antropogena. Möjliga katastrofala risker från naturen inkluderar supervulkanism , nedslagshändelser och energiska astronomiska händelser som gammastrålar , kosmiska strålar , solutbrott och supernovor . Dessa faror karakteriseras som relativt små och relativt väl förstådda, även om pandemier kan vara undantag som ett resultat av att de är vanligare och att de hänger ihop med tekniska trender.

Syntetiska pandemier via beväpnade biologiska medel uppmärksammas mer av FHI. Tekniska resultat som institutet är särskilt intresserade av inkluderar antropogena klimatförändringar , kärnvapenkrigföring och nukleär terrorism , molekylär nanoteknik och artificiell allmän intelligens . Genom att förvänta sig att de största riskerna kommer att härröra från framtida teknologier, och från avancerad artificiell intelligens i synnerhet, håller FHI med andra existentiella riskreducerande organisationer, såsom Center for the Study of Existential Risk och Machine Intelligence Research Institute . FHI-forskare har också studerat effekten av tekniska framsteg på sociala och institutionella risker, såsom totalitarism , automationsdriven arbetslöshet och informationsrisker.

2020 publicerade FHI seniorforskare Toby Ord sin bok The Precipice: Existential Risk and the Future of Humanity , där han argumenterar för att värna om mänsklighetens framtid är en av vår tids viktigaste moralfrågor.

Antropiskt resonemang

FHI ägnar mycket av sin uppmärksamhet åt exotiska hot som har undersökts föga av andra organisationer, och till metodologiska överväganden som informerar om existentiell riskminskning och prognoser. Institutet har särskilt framhållit antropiska resonemang i sin forskning, som ett underutforskat område med generella epistemologiska implikationer.

Antropiska argument som FHI har studerat inkluderar domedagsargumentet , som hävdar att mänskligheten sannolikt kommer att dö ut snart eftersom det är osannolikt att man observerar en punkt i mänsklighetens historia som är extremt tidig. Istället kommer dagens människor sannolikt att vara nära mitten av den fördelning av människor som någonsin kommer att leva. Bostrom har också populariserat simuleringsargumentet .

Ett återkommande tema i FHI:s forskning är Fermi-paradoxen , den överraskande frånvaron av observerbara främmande civilisationer. Robin Hanson har hävdat att det måste finnas ett " stort filter " som förhindrar rymdkolonisering för att förklara paradoxen. Det filtret kan ligga i det förflutna, om intelligens är mycket mer sällsynt än vad nuvarande biologi skulle förutsäga; eller det kan ligga i framtiden, om de existentiella riskerna är ännu större än vad som för närvarande är känt.

Mänsklig förbättring och rationalitet

Nära kopplat till FHI:s arbete med riskbedömning, astronomiskt avfall och farorna med framtida teknologier är arbetet med löften och riskerna med mänsklig förbättring . Modifieringarna i fråga kan vara biologiska, digitala eller sociologiska, och tonvikten läggs på de mest radikala hypotesförändringarna, snarare än på de troligaste kortsiktiga innovationerna. FHI:s bioetiska forskning fokuserar på de potentiella konsekvenserna av genterapi , livsförlängning , hjärnimplantat och hjärn-dator-gränssnitt , och tankeuppladdning .

FHI:s fokus har legat på metoder för att bedöma och förstärka mänsklig intelligens och rationalitet, som ett sätt att forma hastigheten och riktningen för tekniska och sociala framsteg. FHI:s arbete med mänsklig irrationalitet, som exemplifieras i kognitiv heuristik och fördomar , inkluderar ett pågående samarbete med Amlin för att studera den systemiska risken som uppstår från fördomar i modellering.

Utvalda publikationer

Se även

externa länkar