Beleidsmakers moeten omgaan met echte AI-uitdagingen

Focussen op het mistige risico van uitsterven door AI is een gevaarlijke afleiding.

Vorige week bracht een door Silicon Valley gefinancierde groep genaamd het Center for AI Safety een verklaring van één zin uit: "Het beperken van het risico van uitsterven door AI zou een wereldwijde prioriteit moeten zijn naast andere risico's op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog." Het werd ondertekend door vele marktleiders en gerespecteerde AI-onderzoekers en kreeg veel aandacht in de pers.

De bredere reactie op de verklaring was hard. Professor Sandra Wachter van de Universiteit van Oxford zei dat het slechts een publiciteitsstunt was. Enkele van de meer verstandige ondertekenaars, zoals beveiligingsexpert Bruce Schneier, betuigden al snel spijt van de ondertekenaars. "Ik denk eigenlijk niet dat AI een risico vormt voor het uitsterven van de mens", zei Schneier.

Anderen dachten dat de verklaring echt een truc was om geld in te zamelen. Kieren Healy, hoogleraar sociologie aan de Duke University, plaatste een nepparafrase: "Mijn vrienden en ik hebben een enorme vrachtwagen vol subsidiegeld nodig om de letterlijke existentiële bedreigingen op soortniveau te verminderen die verband houden met dit ding dat we beweren te maken."

Marietje Schaake, een voormalig EU-parlementariër die nu verbonden is aan het Cyber ​​Policy Center van Stanford University, suggereerde dat de subtekst van de verklaring was dat beleidsmakers moeten omgaan met existentiële risico's, terwijl bedrijfsleiders de feitelijke regels bepalen voor het gebruik van AI. Hoewel AI misschien nieuw is, zei ze, was dit impliciete argument dat leiders in de AI-industrie "het beste geplaatst zijn om de technologieën die ze produceren zelf te reguleren" niets meer dan gesprekspunten die waren hergebruikt uit hun eerdere gebruik in controverses over sociale media en cryptocurrencies.

Ik ben van mening dat apocalyptische waarschuwingen dat AI een bewuste en onafhankelijke instantie wordt, een afleiding zijn van de echte AI-uitdagingen die van regelgevers vereisen dat ze de handhaving van de huidige wetgeving opvoeren en dat beleidsmakers herzieningen overwegen om juridische hiaten aan te pakken.

Fraude met behulp van AI is illegaal, zoals Lina Khan, voorzitter van de Federal Trade Commission, heeft gezegd. Het bureau heeft al gewaarschuwd voor het gebruik van AI om zich voor te doen als mensen om video- en telefoonzwendel te plegen. China heeft hetzelfde opgemerkt en treedt hard op tegen AI-gestuurde oplichting. Het is niet duidelijk dat er hier nieuwe juridische kwesties zijn, maar er zouden enorme handhavingsinspanningen nodig zijn om deze komende golf van AI-fraude onder controle te krijgen. Het volledig financieren van het budgetverzoek van het bureau van $ 590 miljoen zou een veel productiever gebruik van overheidsgeld zijn dan een studie van de existentiële risico's van AI.

Iedereen maakt zich terecht zorgen over door AI gecreëerde desinformatie, zoals de recente 'nep-Poetin'-aankondiging dat Rusland werd aangevallen. Etikettering kan een grote bijdrage leveren aan het verminderen van deze risico's. De commercial van het Republikeinse Nationale Comité die volgde op de aankondiging van Biden van zijn presidentiële kandidatuur, gebruikte AI om beelden te genereren van wat er zou kunnen gebeuren onder een nieuw Biden-voorzitterschap, maar het werd als zodanig bestempeld en dat verkleinde het risico op verkeerde informatie.

Transparantie voor AI is laaghangend beleidsfruit dat beleidsmakers zouden moeten pakken, zoals sommigen lijken te doen. Vicevoorzitter van de Europese Commissie, Vera Jourova, drong er deze week bij technologiebedrijven op aan om de inhoud die door kunstmatige intelligentie wordt gegenereerd, te labelen. In de VS zal Rep. Ritchie Torres (DN.Y.) binnenkort de wetgeving introduceren die diensten zoals ChatGPT zou verplichten om bekend te maken dat de output "gegenereerd door kunstmatige intelligentie" was.

Auteursrecht en AI is een andere uitdaging. Er is enige duidelijkheid nodig over het compenseren van auteursrechteigenaren voor het gebruik van hun materiaal voor AI-training. In februari klaagde Getty Stability AI in de VS aan omdat het AI-bedrijf 12 miljoen Getty-afbeeldingen had gekopieerd zonder toestemming om zijn Stable Diffusion AI-software voor het genereren van afbeeldingen te trainen. Vorige week vroeg het een Londense rechtbank om Stability AI in het VK te blokkeren omdat het AI-bedrijf het auteursrecht van Getty had geschonden bij het trainen van zijn systeem.

Deze zaken zullen voor de rechtbank worden uitgevochten. Maar er is een redelijk argument dat auteursrechthouders helemaal niet hoeven te worden gecompenseerd, hetzij vanwege redelijk gebruik, hetzij omdat alleen onbeschermde feiten en ideeën worden geëxtraheerd voor AI-training. Bovendien bevat de richtlijn Auteursrecht in de digitale interne markt uit 2019 van de Europese Unie een uitzondering die tekst- en datamining van online auteursrechtelijk beschermd materiaal toestaat, tenzij de eigenaar van het auteursrecht zich afmeldt door gebruik te maken van technologische beveiligingen, zoals een kopblokkering om scannen te voorkomen. Dit kan AI-trainingsgegevens omvatten.

Het huidige ontwerp van de wet inzake kunstmatige intelligentie van de Europese Unie vereist openbaarmaking van de auteursrechtelijk beschermde werken die worden gebruikt bij het trainen van AI-systemen. Dit lijkt bedoeld te zijn om auteursrechteigenaren in staat te stellen gebruik te maken van hun recht om af te zien van tekst- en datamining voor AI-training. Maar het kan ook een stap zijn naar iets verder. Het zou kunnen leiden tot een regime van verplichte licenties dat zou voorkomen dat houders van auteursrechten AI-training blokkeren, maar hen een vergoeding zou bieden voor het gebruik van hun intellectuele eigendom. Het oplossen van deze auteursrechtkwesties vereist gerichte aandacht van beleidsmakers.

De AI-wet van de EU vereist ook dat risicovolle AI-systemen een certificeringsproces moeten ondergaan om ervoor te zorgen dat de risico's adequaat zijn beoordeeld en dat er redelijke risicobeperkende maatregelen zijn genomen. Het huidige ontwerp behandelt fundamentele modellen zoals ChatGPT als risicovolle systemen die onderhevig zijn aan certificering, een potentiële last die blijkbaar Open AI-hoofd Sam Altman ertoe bracht te zeggen dat hij ChatGPT uit Europa zou terugtrekken als hij er niet aan kon voldoen. Sindsdien heeft hij die dreiging teruggedraaid en gezegd dat hij niet van plan is te vertrekken.

Toch heeft hij een punt. Beleidsmakers die op zoek zijn naar een concreet probleem om op te kauwen, moeten zich afvragen hoe een AI-systeem voor algemene doeleinden, zoals ChatGPT, als "veilig" kan worden gecertificeerd wanneer veel van de risico's pas naar voren komen als het systeem in de praktijk wordt toegepast.

Dit zijn slechts enkele van de belangrijkste AI-kwesties die beleidsmakers zouden moeten bezighouden. Andere zijn onder meer de werkgelegenheidseffecten van steeds capabelere AI-systemen, privacyproblemen wanneer trainingsgegevens persoonlijke informatie bevatten, de neiging tot concentratie veroorzaakt door de enorme kosten en netwerkeffecten van het trainen van AI-software, de toepassing van sectie 230 aansprakelijkheidsregels en de handhaving van de wetten tegen vooringenomenheid in leningen, huisvesting en werkgelegenheid wanneer AI geschiktheidsbeoordelingen aanstuurt.

Beleidsmakers hoeven en mogen niet afdwalen naar mistige gebieden waar autonome AI-programma's uit de hand lopen en het voortbestaan ​​van de mens bedreigen. Ze hebben genoeg werk te doen om de vele uitdagingen van AI in de echte wereld het hoofd te bieden.

Bron: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/