AI-experts ondertekenen document waarin het risico van 'uitsterven door AI' wordt vergeleken met pandemieën, nucleaire oorlog

Tientallen experts op het gebied van kunstmatige intelligentie (AI), waaronder de CEO's van OpenAI, Google DeepMind en Anthropic, hebben onlangs een open verklaring ondertekend die is gepubliceerd door het Center for AI Safety (CAIS). 

De verklaring bevat een enkele zin:

"Het verkleinen van het risico van uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere risico's op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog."

Onder de ondertekenaars van het document bevindt zich een echte "wie is wie" van AI-grootheden, waaronder de "Godfather" van AI, Geoffrey Hinton; Universiteit van Californië, Stuart Russell van Berkeley; en Lex Fridman van het Massachusetts Institute of Technology. Muzikant Grimes is ook een ondertekenaar, vermeld onder de categorie "andere opmerkelijke figuren".

Zie ook: Muzikant Grimes bereid om '50% royalty's te delen' met door AI gegenereerde muziek

Hoewel de verklaring op het eerste gezicht onschuldig lijkt, is de onderliggende boodschap enigszins controversieel in de AI-gemeenschap.

Een ogenschijnlijk groeiend aantal experts is van mening dat de huidige technologieën onvermijdelijk kunnen of zullen leiden tot de opkomst of ontwikkeling van een AI-systeem dat een existentiële bedreiging kan vormen voor de menselijke soort.

Hun opvattingen worden echter weerlegd door een contingent van experts met diametraal tegengestelde meningen. Meta-hoofd-AI-wetenschapper Yann LeCun heeft bijvoorbeeld bij talloze gelegenheden opgemerkt dat hij niet noodzakelijkerwijs gelooft dat AI oncontroleerbaar zal worden.

Voor hem en anderen die het niet eens zijn met de retoriek van 'uitsterven', zoals Andrew Ng, mede-oprichter van Google Brain en voormalig hoofdwetenschapper bij Baidu, is AI niet het probleem, maar het antwoord.

Aan de andere kant van het argument geloven experts zoals Hinton en Conjecture CEO Connor Leahy dat AI op menselijk niveau onvermijdelijk is en daarom is het nu tijd om te handelen.

Het is echter onduidelijk tot welke acties de ondertekenaars van de verklaring oproepen. De CEO's en/of hoofden van AI voor bijna elk groot AI-bedrijf, evenals gerenommeerde wetenschappers uit de hele academische wereld, behoren tot degenen die hebben ondertekend, wat duidelijk maakt dat het niet de bedoeling is om de ontwikkeling van deze potentieel gevaarlijke systemen te stoppen.

Eerder deze maand verscheen Sam Altman, CEO van OpenAI, een van de ondertekenaars van de bovengenoemde verklaring, voor het eerst voor het Congres tijdens een hoorzitting in de Senaat om AI-regulering te bespreken. Zijn getuigenis haalde de krantenkoppen nadat hij het grootste deel ervan had besteed aan het aansporen van wetgevers om zijn branche te reguleren.

Altman's Worldcoin, een project dat cryptocurrency en bewijs van persoonlijkheid combineert, heeft onlangs ook de media gehaald nadat het $ 115 miljoen aan Series C-financiering had opgehaald, waardoor de totale financiering na drie ronden op $ 240 miljoen kwam.

Bron: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war