AI kan leiden tot het uitsterven van mensen, waarschuwen techleiders

Topline

Het aanpakken van het "risico van uitsterven" van kunstmatige intelligentie zou een wereldwijde prioriteit moeten zijn, net als het afwenden van catastrofes zoals een nucleaire oorlog, waarschuwde een groep technische leiders en experts dinsdag, de laatste spraakmakende oproep tot voorzichtigheid als bezorgdheid over de mogelijke schade van AI groeit en er worden steeds geavanceerdere systemen uitgerold.

Belangrijkste feiten

"Het verkleinen van het risico van uitsterven door AI zou een wereldwijde prioriteit moeten zijn naast andere risico's op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog", luidt de verklaring van één zin.

De verklaring is gepubliceerd door de in de VS gevestigde non-profitorganisatie Center for AI Safety, die zich inzet om de risico's van AI op maatschappelijk niveau te verminderen door veiligheidsonderzoek uit te voeren en te pleiten voor veiligheidsnormen.

De brief is ondertekend door een groot aantal vooraanstaande leidinggevenden en experts die in het veld werken, waaronder Sam Altman, Demis Hassabis en Dario Amodei, respectievelijk chief executives voor OpenAI - die de ChatGPT-bot creëerde - Google DeepMind en Anthropic.

Andere ondertekenaars zijn onder meer specialisten van bedrijven als Google en Microsoft, maar ook gerespecteerde computerwetenschappers zoals Yoshua Bengio en Geoffrey Hinton, beiden beschouwd als pioniers in het veld wier werk sommige van de applicaties die vandaag worden uitgerold, mogelijk heeft gemaakt.

Leidinggevenden van Meta, een sterke speler in AI en het moederbedrijf van Facebook, WhatsApp en Instagram, hebben de verklaring niet ondertekend, aldus het Center for AI Safety.

"Om het risico van uitsterven door AI te verkleinen, is wereldwijde actie nodig", vergelijkbaar met de maatregelen die worden gebruikt om het risico van een nucleaire oorlog te verkleinen, zei Dan Hendrycks, directeur van het Center for AI Safety, en benadrukte dat een vergelijkbaar niveau van inspanning en coördinatie nodig zal zijn om de toekomstige risico's van AI goed aanpakken.

Cruciaal citaat

"Het is niet te vroeg om vangrails te plaatsen en instellingen op te zetten zodat AI-risico's ons niet overrompelen", zei Hendrycks in een verklaring bij de waarschuwing van 22 woorden. Hendrycks zei dat de toenemende maatschappelijke bezorgdheid over de mogelijke gevolgen van AI doet denken aan wat er gebeurde in de begindagen van kernenergie en dat "we de gesprekken moeten voeren die nucleaire wetenschappers voerden vóór de creatie van de atoombom." Hoewel het belangrijk is dat we de urgente problemen aanpakken die AI-systemen al opleveren, waaronder het gebruik om verkeerde informatie te verspreiden of miljoenen banen te elimineren, zei Hendrikcks dat het belangrijk is dat "de AI-industrie en regeringen over de hele wereld... serieus het risico onder ogen zien dat toekomstige AI's kunnen vormen een bedreiging voor het menselijk bestaan.”

Nieuws Peg

De beknopte verklaring is de laatste van verschillende spraakmakende waarschuwingen van leiders uit het maatschappelijk middenveld, de academische wereld en de industrie om te waarschuwen voor de potentiële risico's die AI met zich meebrengt, waaronder een brief ondertekend door mensen als Elon Musk en Steve Wozniak waarin wordt opgeroepen tot een pauze van zes maanden. om de risico's van AI te inventariseren. Hoewel veel ondertekenaars al vele jaren spreken over het existentiële risico van AI – waaronder medeoprichter van Skype Jaan Tallinn en de veelgeprezen Britse natuurkundige Martin Rees – heeft de wijdverbreide uitrol van generatieve AI-systemen zoals ChatGPT het debat urgenter gemaakt, vooral nu bedrijven zich haasten om sneller betere systemen ontwikkelen, bouwen en implementeren dan hun rivalen.

Contra

Weinigen die bekend zijn met het veld zullen beweren dat er geen risico's verbonden zijn aan AI en velen, waaronder het risico van het verergeren van bestaande vooroordelen en ongelijkheden, het bevorderen van verkeerde informatie, het verstoren van de politiek en het op zijn kop zetten van de economie en de arbeidsmarkt, worden al gevoeld. Er is echter minder overeenstemming over de vraag of AI-systemen op een dag het voortbestaan ​​van de mensheid zullen bedreigen. Dergelijke bedreigingen, ook wel existentiële risico's genoemd, omvatten een breed scala van meer tastbare bedreigingen zoals een nucleaire oorlog, asteroïde-inslagen, klimaatverandering en pandemieën tot meer esoterische zaken zoals een aanval van buitenaardse wezens of op hol geslagen nanotechnologie. Degenen die voorstander zijn van het classificeren van AI als een existentieel risico variëren in de details die ze geven voor hun redenering en veel is noodzakelijkerwijs speculatief. Anderen beweren dat een dergelijk standpunt onverantwoordelijk is en in feite zeer reële huidige problemen negeert ten koste van een speculatief toekomstig probleem. Hoewel AI-systemen in hun mogelijkheden groeien, wijzen velen op hun algemene onvermogen om zelfs maar eenvoudige taken uit te voeren als een reden om AI af te doen als een existentiële bedreiging.

Verder lezen

Elon Musk en technische leiders roepen op tot AI-pauze vanwege risico's voor de mensheid (Forbes)

IBM stopt met het inhuren van mensen voor banen die AI kan doen, zegt rapport (Forbes)

Bron: https://www.forbes.com/sites/roberthart/2023/05/30/ai-could-cause-human-extinction-tech-leaders-warn/