Het Cry Wolf-moment van de AI-hype helpt niet

Hoewel ik iemand ben die scenario's voor het einde van de mensheid bestudeert, geloof ik dat de "deskundigenbrief" die een AI-moratorium van zes maanden suggereert, of de recentere verklaring dat het AI-risico zich op het niveau van pandemie en nucleair risico bevindt, beide overhyped zijn. De nog wildere mening dat we AI moeten afsluiten, is onverantwoordelijk. Elke zorg moet in verhouding staan ​​tot de risico's waarmee we worden geconfronteerd. Op dit moment lopen we geen direct gevaar door AI.

De huidige AI's zijn niet in staat de samenleving over te nemen. Ze hebben geen gevoelens en verdienen geen bescherming zoals mensenlevens dat doen. Ze zijn niet superintelligent en overtreffen de mens op geen enkele manier. Sterker nog, ze denken helemaal niet na. Op dit moment zijn AI's, als ze overvloedige gegevens krijgen, erg goed in specifieke taken zoals berekening en voorspelling. Dat is niet zorgwekkend, dat zijn eigenschappen die deze systemen van nature hebben. De belofte van AI's omvat het oplossen van kanker, het transformeren van industriële productie, het modelleren van toekomstscenario's en het beheersen van milieu-uitdagingen. Dat gezegd hebbende, zijn er legitieme redenen om huidige AI's te bekritiseren vanwege het gebruik van hulpbronnen, transparantie, vooringenomenheid, cyberbeveiliging en de toekomstige impact ervan op de werkgelegenheid.

AI's zijn rekenkundig duur, wat betekent dat ze een grote verspilling van schaarse, fossiele energie zijn. Dit moet onmiddellijk worden aangepakt. Maar het is geen existentiële kwestie, het is een kwestie van rationeel gebruik van hulpbronnen. Het feit dat AI's die afhankelijk zijn van grote en inefficiënte datamodellen te duur worden om te volgen en te onderzoeken door de academische wereld of de overheid, is een reëel probleem. Maar het is snel op te lossen. Consortia van elite academische instellingen of regeringen zouden samen kunnen gaan en computerbronnen kunnen delen zoals ze dat hebben gedaan voor supercomputing.

Large Language Models (LLM) zijn AI-modellen die natuurlijke taalteksten kunnen genereren uit grote hoeveelheden data. Een probleem daarbij is dat deze teksten rechtstreeks zijn ontleend aan de oprechte intellectuele bijdragen van anderen. Ze zijn inderdaad gestolen. Met name generatieve AI combineert zowel consumenten- en organisatiegegevens als creatieve inhoud opnieuw, wat een ernstige schending van het auteursrecht inhoudt. Dit is serieus, maar niet existentieel, en bovendien zijn de EU, lobbyisten uit Hollywood en de "big five" boekuitgevers al bezig met de zaak. Verwacht dat dit het gewicht van AI zal vertragen. In het huidige tempo zullen AI's geen goede trainingsgegevens meer hebben lang voordat het bewustzijn nadert.

Algoritmen die al worden gebruikt om onze belastingen te berekenen, onze online feeds te selecteren of mensen in de gevangenis te stoppen, hebben een opvallend gebrek aan transparantie. Dit is echter al jaren zo en heeft niets te maken met de nieuwste AI-ontwikkelingen. AI-bias is een functie en geen bug. Stereotypering is in feite de belangrijkste benadering waarmee dergelijke modellen werken. Behalve dat het vooroordeel verborgen zit in ondoordringbare lagen van machinale redeneringen die ongrijpbaar zijn voor mensen, experts of niet. Wat we in twijfel moeten trekken, is de wijsheid van de ontwikkelaars die dergelijke systemen hebben ontwikkeld, niet de mogelijkheden van het systeem dat ze hebben gemaakt, wat een gegeven is. Systemen zullen zelden beter zijn dan de wijsheid of intenties van degenen die het bouwen of beheren.

AI-trainingsgegevens weerspiegelen de vooroordelen die aanwezig zijn in de samenleving waaruit die gegevens zijn verzameld. Het hergebruik van slechte trainingsgegevens is een zorgwekkende praktijk die AI-modellen nu al vervuilt. De huidige AI-benaderingen versterken simpelweg de vooringenomenheid om snel tot een resultaat te komen. Toegegeven, dit is het tegenovergestelde van wat we willen. Wat we willen doen, is technologie gebruiken om menselijke fouten te beschermen. Piekeren over machinefouten is een verkwistend gebruik van menselijke intelligentie.

Ondanks de metafoor van het "neurale netwerk", lijken de huidige AI's in het geheel niet op hersenen. Huidige AI-systemen kunnen niet analoog redeneren zoals mensen dat doen. Dit is goed. Misschien willen we niet het soort AI-afstemming waar zeloten voor pleiten en proberen na te bootsen. Machines zouden anders moeten zijn dan mensen. Zo kunnen we elkaars sterke punten maximaal benutten. En hoe we machines onderscheidend en apart kunnen houden. Machines zouden geen belangen moeten hebben om op elkaar af te stemmen.

AI vormt in toenemende mate een aanzienlijke cyberbeveiligingsdreiging als troef voor criminelen en vijandige staten. Maar cyberbeveiliging is een volwassen branche met tal van experts die goed zijn toegerust om de uitdaging aan te gaan. Er is geen reden om AI af te sluiten vanwege angst voor cyberbeveiliging.

Ontwrichting van de werkgelegenheid door AI is al jaren een beleidskwestie, eerst met robots, nu met op software gebaseerde AI-systemen. Dat betekent dat regeringen klaar zullen zijn om ermee om te gaan. De MIT Work of The Future-studie vond de bezorgdheid over werkloosheid als gevolg van robots overdreven. Mensen hebben altijd manieren gevonden om te werken en zullen dat ook in de toekomst doen. Zal de productie worden getransformeerd door AI? Het gebeurt al, maar op een redelijk gecontroleerde manier.

Van tijd tot tijd lijdt AI aan overdreven beloften over huidige functionaliteit of toekomstige reikwijdte. De eerste AI-winters begonnen in 1974–1980, toen de Amerikaanse regering haar financiering terugtrok. De tweede was van 1987 tot 1993, toen de kosten escaleerden en AI zijn verheven beloften niet kon waarmaken.

In afwachting van de komst van nieuwe paradigma's, zullen we in de periode van 2025-2030 waarschijnlijk een derde AI-winter ingaan. Tenminste in vergelijking met de hete AI-zomer die ons is beloofd. De reden is dat, ondanks de hype, grote taalmodellen om alle hierboven geschetste redenen op het punt staan ​​hun maximale bruikbaarheid te bereiken en uiteindelijk zullen moeten worden vervangen door computationeel elegantere benaderingen die transparanter zijn.

Een van die kandidaten is hyperdimensionaal computergebruik, waardoor machines efficiënter zouden kunnen redeneren omdat ze machines semantisch begrip geven, het vermogen om betekenis en context achter real-world informatie te verwerken. Op dit moment begrijpen AI-systemen de relaties tussen woorden en zinnen niet, ze zijn gewoon goed in giswerk. Dat is onvoldoende. We zullen uiteindelijk belichaamde AI nodig hebben, omdat denken verbonden is met perceptie van ruimte. Dat is zeker het geval bij productie, wat een zeer fysiek spel is. We zullen ook AI nodig hebben die in staat is tot menselijke geheugenfuncties, zoals het stellen van prioriteiten op basis van bepaalde informatie op de voorgrond en andere informatie op de achtergrond. Vergeten is een hulpmiddel dat mensen gebruiken om abstract te denken, om verder te gaan met verouderde organisatorische praktijken, om beslissingen te nemen en om in het moment te blijven, en het is niet zomaar een fout. Er zijn nog geen machines die dat zo goed kunnen.

In de tussentijd moeten we wel reguleren, maar niet nu. En als we reguleren, kunnen we het maar beter goed doen. Slechte regulering van AI zal de situatie waarschijnlijk verergeren. Regelgevers bewust maken van deze uitdaging kan nuttig zijn, maar ik weet niet zeker of de huidige generatie regelgevers klaar is voor dat soort ingrijpende veranderingen die nodig zijn om het goed te doen. Het zou betekenen dat machtige bedrijven (mogelijk alle beursgenoteerde bedrijven) worden ingeperkt, het gebruik van AI in governance wordt beperkt en het zou enorme veranderingen betekenen in de manier waarop consumentenmarkten momenteel werken. In wezen zouden we de samenleving opnieuw moeten bedraden. Het zou ons een paar decennia eerder in ontgroeiing brengen dan we misschien wensen. De transparantie-uitdaging rond AI is misschien formidabeler dan de controlevariabelen waar iedereen zich zo druk over lijkt te maken, niet dat ze natuurlijk niets met elkaar te maken hebben.

Bovendien kunnen we ons niet elke keer even zorgen maken als een AI-benchmark wordt gehaald. We moeten onze energie sparen voor echt grote momenten van trapsgewijze risico's. Ze zullen komen en eerlijk gezegd zijn we niet voorbereid. Mijn voorziene toekomstscenario's (zie Uitstervingsscenario's voor 2075) omvatten enorme datalekken die hele landen maandenlang buitengesloten houden van hun eigen processen. Ik maak me ook zorgen over AI's die worden geholpen door criminele groeperingen of statelijke actoren. Ik maak me vooral zorgen over combinaties van AI, nanotechnologie, synthetische biologie en kwantumtechnologie – bijna onzichtbare, quasi-organische intelligentie met onbekende mogelijkheden, die misschien pas over een paar decennia zal plaatsvinden, net op het moment dat de wereld wordt verteerd door de trapsgewijze effecten van het klimaat. wijziging.

De huidige AI-modellen werken nog niet goed genoeg om een ​​bedreiging voor de mensheid te vormen. Voordat we kunnen overwegen ze af te sluiten, hebben we betere AI's nodig. Meer dan dat, we hebben wijzere ontwikkelaars, meer gesensibiliseerde burgers en beter geïnformeerde beleidsmakers nodig. We hebben ook een concept nodig voor HOE AI te reguleren. Maar dit kan worden gedaan zonder iets te vertragen. Het wordt een leerzame reis voor iedereen. De moratoriumbrief met betrekking tot GPT 4 (2023) is een huilebalkmoment met slechts een vage gelijkenis met de trapsgewijze risico's waarmee de mensheid de komende decennia wordt geconfronteerd. Het is voorbarig om het AI-risico in 2023 op het niveau van pandemisch risico en nucleair risico te plaatsen. Zullen we er komen? Misschien. Maar huilende wolf heeft gevolgen. Het zuigt de zuurstof uit komende debatten over echte angsten.

Bron: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/