AI-ethiek sceptisch over het vaststellen van zogenaamde rode vlag-AI-wetten voor het oproepen van vooringenomen algoritmen in autonome AI-systemen

Laten we het hebben over Red Flag-wetten.

U weet ongetwijfeld dat het begrip Red Flag-wetten de laatste tijd veel in het nieuws is geweest. Krantenkoppen over het onderwerp zijn er in overvloed. Passies en gepassioneerde debatten over dergelijke zaken staan ​​hoog in het vaandel als een maatschappelijke zorg en brengen de huidige en snel opkomende Red Flag Gun Laws met zich mee.

Ik zou echter durven zeggen dat u misschien niet bekend bent met andere Red Flag-wetten die aan het eind van de 1800e eeuw werden uitgevaardigd met betrekking tot gemotoriseerde voertuigen en de voorlopers van de hedendaagse moderne auto's. Ja, dat klopt, Red Flag-wetten gaan terug in de geschiedenis, hoewel ze andere onderwerpen behandelen in vergelijking met de hedendaagse focus. Deze worden meestal aangeduid als Red Flag-verkeerswetten.

Deze nu eeuwenoude en totaal vervallen wetten vereisten dat elk gemotoriseerd rijtuig of motor aangedreven door stoom in die tijd een volwassene voor het voertuig moest hebben en een rode vlag moest dragen voor waarschuwingsdoeleinden. Het idee was dat vee gealarmeerd zou kunnen worden door die luidruchtige en chagrijnige constructies die langzaam en ongelijk over de onverharde of marginaal verharde wegen rolden, dus als iemand voor het apparaat langs liep terwijl hij krachtig met een rode vlag zwaaide, zou hopelijk calamiteiten kunnen worden voorkomen. Voor het geval je het je afvroeg, spoorwegen en treinen werden beschouwd als uitgesloten van dezelfde wetten omdat ze voertuigen waren die integraal aan rails waren gebonden en andere wetten hadden die hun acties dekten.

Stelt u zich eens voor dat we vandaag de dag voor elke auto op onze openbare wegen een rode vlag moeten zwaaien.

Een gewone automobilist die door uw buurtstraat komt, moet er bijvoorbeeld voor zorgen dat een volwassene die met een rode vlag zwaait aanwezig is en voor de rijdende auto paradeert. Dit zou moeten gebeuren voor elk voertuig dat door uw straat rijdt. Misschien zouden mensen rode vlag-jobbers worden die verhuurden aan passerende automobilisten die anders geen vriend of familielid hadden die voor hen kon gaan en de voorgeschreven zwaaiende actie kon doen.

We associëren tegenwoordig het zwaaien van de snelweg met rode vlaggen met wegenbouwplaatsen. Als je in de buurt van een opgegraven weg komt, houden arbeiders een rode vlag omhoog om je aandacht te trekken. Dit vertelt je dat je moet vertragen en alert moet zijn. Er kan een bulldozer op je pad komen. Er kan een gigantisch gat voor je liggen en je moet er voorzichtig omheen lopen.

Maar laten we teruggaan naar het gebruik van rode vlaggen in de 1800e eeuw.

Geloof het of niet, de rode vlag-waver moest minstens een achtste mijl verder zijn dan de aanstaande gemotoriseerde machine. Dat lijkt me een behoorlijk lange afstand. Men veronderstelt echter dat dit in die tijd heel logisch was. De opzienbarende geluiden van de motor en misschien alleen al het zien van het voertuig zijn al genoeg om de dieren zenuwachtig te maken. Sommige van de Red Flag-wetten van die tijd vereisten ook dat een schijnend rood licht 's nachts omhoog moest worden gehouden, zodat een visueel duidelijke rode waarschuwing kon worden gezien vanaf een verduisterde afstand.

Over het algemeen denk ik dat het redelijk is om te beweren dat we als samenleving de neiging hebben om een ​​rode vlag te associëren met een soort signaal of bewegwijzering dat er iets mogelijk mis is of op zijn minst onze toegewijde aandacht nodig heeft.

Maak je klaar voor een beetje een draai aan dit rode vlag-fenomeen.

Er wordt beweerd dat we rode vlag-bepalingen moeten eisen als het gaat om kunstmatige intelligentie (AI).

Dat is een beetje opzienbarend en een verrassend concept waar menig hoofd aan krabt. Je zou je kunnen afvragen hoe of waarom er zogenaamde AI-wetten met rode vlag. Houd er rekening mee dat ik dit bestempel als Red Flag AI-wetten om de zaak te onderscheiden van Red Flag-verkeerswetten (zoals die van het einde van de 1800e eeuw) en ook om ze te onderscheiden van de andere, meer voorkomende Red Flag Gun-wetten van vandaag.

Hebben we eigenlijk Red Flag AI-wetten nodig die duidelijk en uitsluitend zijn gericht op AI-kwesties?

Degenen die voorstander zijn van de voorgestelde aanpak zouden erop aandringen dat we absoluut wettelijke bepalingen nodig hebben die zouden helpen bij het terugdringen van AI die onnodige vooroordelen bevat en op discriminerende manieren handelt. Op dit moment is het bouwen en inzetten van AI verwant aan een Wild West-alles-kan-situatie. Inspanningen om slechte AI in te dammen zijn momenteel afhankelijk van de formulering en goedkeuring van AI Ethics-richtlijnen. Voor mijn doorlopende en uitgebreide berichtgeving over AI Ethics en Ethical AI, zie: de link hier en de link hier, om er een paar te noemen.

Wetten die slechte AI insluiten, worden langzaam bedacht en ingevoerd, zie mijn bericht op de link hier. Sommigen zijn bang dat de wetgevers niet snel genoeg gaan. Het lijkt erop dat de sluizen om bevooroordeelde AI in de wereld te laten groeien momenteel grotendeels wijd open staan. Handenwringen zegt dat tegen de tijd dat nieuwe wetten in de boeken komen, de boze geest al uit de fles zal zijn.

Niet zo snel, gaan de tegenargumenten. Zorgen zijn dat als wetten te snel worden ingevoerd, we als het ware de gouden gans zullen doden, waardoor AI-inspanningen zullen opdrogen en we niet de maatschappelijk stimulerende voordelen van nieuwe AI-systemen zullen krijgen. AI-ontwikkelaars en bedrijven die AI willen gebruiken, kunnen schrikken als er plotseling een reeks nieuwe wetten voor AI wordt ingevoerd op federaal, staats- en lokaal niveau, om nog maar te zwijgen van de internationale AI-gerelateerde wetten die ook oprukken.

In deze rommelige affaire komt de roep om Red Flag AI-wetten.

Voordat we ingaan op wat meer vlees en aardappelen over de wilde en wollige overwegingen die ten grondslag liggen aan de beoogde Red Flag AI-wet, laten we enkele aanvullende grondbeginselen vaststellen over zeer essentiële onderwerpen. We moeten even een frisse duik nemen in AI Ethics en vooral de komst van Machine Learning (ML) en Deep Learning (DL).

Je bent je er misschien vaag van bewust dat een van de luidste stemmen tegenwoordig in het AI-veld en zelfs buiten het veld van AI bestaat uit het roepen om een ​​grotere schijn van ethische AI. Laten we eens kijken naar wat het betekent om te verwijzen naar AI Ethics en Ethical AI. Bovendien zullen we onderzoeken wat ik bedoel als ik het heb over Machine Learning en Deep Learning.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Laten we terugkeren naar onze focus op Red Flag AI-wetten.

Het onderliggende concept is dat mensen een waarschuwingssignaal zouden kunnen geven wanneer ze van mening waren dat een AI-systeem op een al te vooringenomen of discriminerende manier werkte. Je zou niet per se een fysieke vlag hijsen, en in plaats daarvan zou je gewoon een aantal elektronische middelen gebruiken om je zorgen kenbaar te maken. Het rode vlaggedeelte van het schema of de aanpak is meer een metafoor dan een fysieke belichaming.

Doe alsof je een hypotheek aanvraagt. U kiest voor het aanvragen van een lening via internetbankieren. Na het invoeren van enkele persoonlijke gegevens wacht u even op het AI-systeem dat wordt gebruikt om te beslissen of u leenwaardig bent of niet. De AI vertelt je dat je bent afgewezen voor de lening. Op het verzoek om een ​​verklaring waarom je bent afgewezen, lijkt het tekstuele verhaal je te suggereren dat de AI onnodig vooringenomen factoren gebruikte als onderdeel van het besluitvormingsalgoritme.

Tijd om een ​​rode vlag te hijsen over de AI.

Waar zal deze rode vlag precies zwaaien?

Dat is een vraag van een miljoen dollar.

Een van de standpunten is dat we een landelijke database moeten opzetten waarmee mensen hun AI-relevante rode vlaggen kunnen markeren. Sommigen zeggen dat dit moet worden geregeld door de federale overheid. Federale agentschappen zouden verantwoordelijk zijn voor het onderzoeken van de rode vlaggen en het helpen van het grote publiek met betrekking tot de waarheidsgetrouwheid en het omgaan met vermoedelijk "slechte AI" die de rode vlagrapportage opwekte.

Een nationale Red Flag AI-wet zou schijnbaar worden vastgesteld door het Congres. De wet zou duidelijk maken wat een AI-relevante rode vlag is. De wet zou beschrijven hoe deze AI-grouse rode vlaggen worden gehesen. Enzovoort. Het kan ook zo zijn dat individuele staten er ook voor kiezen om hun eigen Red Flag AI-wetten op te stellen. Misschien doen ze dit in plaats van een nationaal initiatief, of ze doen dit om bijzonderheden te versterken die vooral aantrekkelijk zijn voor hun specifieke staat.

Critici van een federaal of een door de overheid gesteund Red Flag AI-programma zouden beweren dat dit iets is dat de particuliere industrie kan doen en dat we Big Brother niet nodig hebben om op de voorgrond te treden. De industrie zou een online repository kunnen opzetten waarin mensen rode vlaggen over AI-systemen kunnen registreren. Een zelfregulerende actie van de industrie zou deze problemen voldoende aanpakken.

Een minpunt over de vermeende benadering van de industrie is dat het lijkt te rieken naar vriendjespolitiek. Zouden bedrijven bereid zijn zich te houden aan een particuliere Red Flag AI-database? Veel bedrijven zouden mogelijk de gemarkeerde rode vlaggen over hun AI negeren. Er zouden geen scherpe tanden zijn om bedrijven te laten omgaan met de ingevoerde rode vlaggen.

Hé, de voorstanders van de private sector-benadering klinken gek, dit zou verwant zijn aan nationale Yelp-achtige service. Consumenten kunnen naar de rode vlaggen kijken en zelf beslissen of ze zaken willen doen met bedrijven die een hele reeks AI-gerichte rode vlaggen hebben gekregen. Een bank die tonnen rode vlaggen kreeg over hun AI, zou moeten opletten en hun AI-systemen moeten vernieuwen, dus de logica is, anders zouden consumenten het bedrijf mijden als de pest.

Of deze hele benadering door de overheid of door de industrie wordt gevolgd, is slechts het topje van de ijsberg op netelige vragen waarmee de voorgestelde Red Flag AI-wetten worden geconfronteerd.

Kruip in de huid van een bedrijf dat AI heeft ontwikkeld of gebruikt. Het kan zijn dat consumenten rode vlaggen afgeven, ook al was er geen levensvatbare basis om dit te doen. Als mensen vrijuit een rode vlag over de AI zouden kunnen plaatsen, zouden ze in de verleiding kunnen komen om dit in een opwelling te doen, of misschien uit wraak tegen een bedrijf dat anders niets verkeerds heeft gedaan jegens de consument.

Kortom, er kunnen veel vals-positieve rode vlaggen zijn over AI.

Een andere overweging is de enorme omvang of omvang van de resulterende rode vlaggen. Er kunnen gemakkelijk miljoenen en miljoenen rode vlaggen worden gehesen. Wie gaat al die rode vlaggen opvolgen? Wat zouden de kosten zijn om dit te doen? Wie betaalt de follow-up-inspanningen voor de rode vlag? Enz.

Als je zou zeggen dat iedereen die zich registreert of een rode vlag over AI meldt, een vergoeding moet betalen, ben je een duister en verraderlijk rijk binnengegaan. De zorg zou zijn dat alleen de rijken het zich zouden kunnen veroorloven om rode vlaggen te hijsen. Dit houdt op zijn beurt in dat de verarmden niet in gelijke mate zouden kunnen deelnemen aan de rode vlag-activiteiten en in wezen geen plaats hebben om te waarschuwen voor nadelige AI.

Voor nu nog een extra twist, namelijk dat dit soort rode vlag-wetten of richtlijnen over AI achteraf lijken te zijn in plaats van als waarschuwing vooraf te dienen.

Terugkomend op de verkeerswetten met rode vlag, lag de nadruk van het gebruik van een rode vlag op het voorkomen van een calamiteit om mee te beginnen. De rode vlag-waver moest ver voor de aankomende auto zijn. Door voor het voertuig te zijn, zou het vee worden gewaarschuwd en degenen die het vee bewaakten, zouden weten dat ze voorzorgsmaatregelen moesten nemen vanwege de binnenkort te arriveren storende bron.

Als mensen alleen een rode vlag kunnen heffen over AI die hun rechten schijnbaar al heeft geschaad of ondermijnd, is het spreekwoordelijke paard al uit de schuur. Het enige dat dit lijkt te bereiken, is dat hopelijk andere mensen die langskomen nu weten dat ze op hun hoede moeten zijn voor dat AI-systeem. Ondertussen heeft de naar verluidt onrechtvaardige persoon al geleden.

Sommigen suggereren dat we mensen misschien kunnen toestaan ​​om rode vlaggen te heffen over AI die ze verdachte kunnen bevooroordeeld zijn, zelfs als ze de AI niet hebben gebruikt en niet rechtstreeks door de AI zijn beïnvloed. Zo wordt de rode vlag gezwaaid voordat de schade is aangericht.

Yikes, luidt het antwoord, je gaat de AI-coping rode vlaggen echt tot een volledig onhandelbare en chaotische aangelegenheid maken. Als iemand om wat voor reden dan ook een rode vlag kan opsteken over een AI-systeem, ondanks dat je helemaal niets met die AI hebt gedaan, word je overspoeld met rode vlaggen. Erger nog, je zult het kaf niet van het koren kunnen onderscheiden. De hele aanpak van de rode vlag zal onder zijn eigen gewicht bezwijken, waardoor de goedheid van het idee teniet wordt gedaan door wrakstukken en tuig het hele schip te laten zinken.

Duizelingwekkend en verwarrend.

Op dit moment van deze gewichtige discussie, durf ik te wedden dat u op zoek bent naar enkele illustratieve voorbeelden die dit onderwerp zouden kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over Red Flag AI-wetten, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI-wetten met rode vlag

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik hoop dat dit een voldoende litanie van voorbehouden biedt om ten grondslag te liggen aan wat ik ga vertellen.

Laten we een scenario schetsen dat een Red Flag AI-wet zou kunnen gebruiken.

Je stapt in een op AI gebaseerde zelfrijdende auto en wilt dat het autonome voertuig je naar je plaatselijke supermarkt brengt. Tijdens de relatief korte reis neemt de AI een route die je enigszins verkeerd lijkt. In plaats van de meest directe weg te gaan, navigeert de AI naar afgelegen straten, waardoor de rijtijd langer is dan normaal.

Wat is er aan de hand?

Ervan uitgaande dat u betaalt voor het gebruik van de zelfrijdende auto, zou u kunnen vermoeden dat de AI is geprogrammeerd om een ​​langere route te rijden om te proberen het tarief of de kosten van de reis te verhogen. Iedereen die ooit een conventionele, door mensen aangedreven cabine heeft genomen, kent de trucjes die kunnen plaatsvinden om meer geld op de meter te krijgen. Natuurlijk, met mensen die GPS op hun smartphones hebben terwijl ze in een taxi of iets dergelijks rijden, kun je gemakkelijk een menselijke bestuurder betrappen die stiekem onnodig lange routes lijkt te nemen.

Blijkt dat je nog een zorg hebt over de routekeuze, iets dat echt aan je knaagt.

Stel dat de routing werd gedaan om bepaalde delen van de stad te vermijden vanwege raciale facetten. Er zijn gedocumenteerde gevallen van menselijke chauffeurs die betrapt zijn op het maken van dat soort keuzes, zie mijn discussie op de link hier. Wellicht is de AI daar nadelig voor geprogrammeerd.

Je besluit een rode vlag te hijsen.

Laten we ter wille van de discussie aannemen dat er een Red Flag AI-wet is uitgevaardigd die uw rechtsgebied dekt. Het kan lokale wetgeving, staatswet, federaal of internationaal recht zijn. Voor een analyse die ik samen met het Autonomous Vehicle Policy Initiative (AVPI) van Harvard heb geschreven over het toenemende belang van lokaal leiderschap wanneer gemeenschappen het gebruik van zelfrijdende auto's overnemen, zie de link hier.

U gaat dus online naar een Red Flag AI-database. In de incidentendatabase vult u de gegevens van de zelfrijdende autorit in. Dit omvat de datum en tijd van de trektocht, samen met het merk en model van de zelfrijdende auto. Vervolgens voer je de navigatieroute in die verdacht leek, en je suggereert of beweert zelfs ronduit dat de AI is ontworpen met bevooroordeelde of discriminerende bedoelingen en capaciteiten.

We zouden moeten speculeren over de andere bijzonderheden van de Red Flag AI-wet over wat er vervolgens gebeurt in dit specifieke scenario. In theorie zou er een voorziening zijn voor iemand om de rode vlag te herzien. Ze zouden vermoedelijk proberen de autofabrikant of het zelfrijdende technologiebedrijf hun standpunt over de geregistreerde rode vlag uit te leggen. Hoeveel andere dergelijke rode vlaggen zijn geregistreerd? Welke resultaten hebben die rode vlaggen opgeleverd?

En zo zou het gaan.

Conclusie

Belachelijk, roepen sommige sceptici op.

We hebben geen AI-wetten met rode vlag nodig, ze oefenen streng uit. Door iets dergelijks te doen, zullen de werken toenemen als het gaat om het tempo en de voortgang van AI. Dergelijke wetten zouden onpraktisch zijn. Je zou een probleem creëren dat geen probleem oplost. Er zijn andere manieren om met AI om te gaan die slecht zijn. Grijp niet blindelings naar strohalmen om het hoofd te bieden aan vooringenomen AI.

Schakelen, we weten allemaal dat stierenvechters rode capes gebruiken om schijnbaar de aandacht van de boze stier te trekken. Hoewel rood de kleur is die we het meest associëren met deze praktijk, zal het je misschien verbazen dat wetenschappers zeggen dat stieren de rode kleur van de muleta niet waarnemen (ze zijn kleurenblind voor rood). De populaire show MythBusters heeft een heel vermakelijk onderzoek van deze zaak gedaan. De beweging van de cape is het belangrijkste element in plaats van de gekozen kleur.

Voor degenen die de noodzaak van AI-wetten met een rode vlag terzijde schuiven, is een tegenclaim dat we iets van een dramatisch en onmiskenbaar golvend karakter nodig hebben om ervoor te zorgen dat AI-ontwikkelaars en bedrijven die AI inzetten, uit de buurt blijven van vooringenomen of slechte AI. Als het niet voor een rode vlag is, kan een fladderende cape of eigenlijk elke vorm van alarmerende benadering binnen het bereik van de nodige aandacht komen.

We weten zeker dat er slechte AI bestaat en dat er nog veel meer slechte AI onze kant op komt. Het vinden van manieren om onszelf te beschermen tegen schadelijke AI is cruciaal. Even belangrijk is het plaatsen van vangrails om te proberen te voorkomen dat slechte AI de wereld binnenkomt.

Ernest Hemingway heeft de beroemde uitspraak gedaan dat niemand ooit zijn leven helemaal naar boven leeft, behalve stierenvechters. We moeten ervoor zorgen dat mensen hun hele leven kunnen leven, ondanks de slechtheid of waanzin van AI die ons wordt afgekondigd.

Bron: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-genaamd-red-flag-ai-laws-for-calling-out- bevooroordeelde-algoritmen-in-autonome-ai-systemen/