AI-ethiek en AI-wetgeving die verduidelijken wat in feite betrouwbare AI is

Vertrouwen is alles, zeggen ze.

De bekende filosoof Lao Tzu zei dat degenen die niet genoeg vertrouwen, niet vertrouwd zullen worden. Ernest Hemingway, een gewaardeerde romanschrijver, verklaarde dat de beste manier om erachter te komen of je iemand kunt vertrouwen, is door hem of haar te vertrouwen.

Ondertussen lijkt het erop dat vertrouwen zowel kostbaar als broos is. Het vertrouwen dat men heeft kan instorten als een kaartenhuis of plotseling barsten als een geknalde ballon.

De oude Griekse tragedieschrijver Sophocles beweerde dat vertrouwen sterft, maar wantrouwen bloeit. De Franse filosoof en wiskundige Descartes beweerde dat het verstandig is om degenen die ons ook maar één keer hebben bedrogen, nooit volledig te vertrouwen. Miljardair zakeninvesteerder, buitengewoon Warren Buffett, vermaande dat het twintig jaar duurt om een ​​betrouwbare reputatie op te bouwen en vijf minuten om het te verpesten.

Het zal je misschien verbazen dat al deze uiteenlopende opvattingen en provocerende meningen over vertrouwen cruciaal zijn voor de komst van kunstmatige intelligentie (AI).

Ja, er is iets dat scherp wordt genoemd: betrouwbare AI dat krijgt tegenwoordig veel aandacht, inclusief handwringende catcalls vanuit het veld van AI en ook onstuimige uitbarstingen door mensen buiten het AI-rijk. Het algemene idee houdt in of de samenleving al dan niet bereid zal zijn om vertrouwen te stellen in bijvoorbeeld AI-systemen.

Vermoedelijk, als de samenleving AI niet wil of kan vertrouwen, is de kans groot dat AI-systemen geen grip zullen krijgen. AI zoals we die momenteel kennen, zal aan de kant worden geschoven en alleen maar stof verzamelen. Schokkend genoeg zou AI op de rommelhoop kunnen belanden, historisch gedegradeerd tot niets meer dan een wanhopig geprobeerd maar spectaculair mislukt hightech-experiment. Elke poging om AI nieuw leven in te blazen, zou mogelijk een enorme zware strijd te verduren krijgen en worden gestopt door allerlei bezwaren en regelrechte protesten. Ogenschijnlijk vanwege een gebrek aan vertrouwen in AI.

Wat zal het zijn, moeten we vertrouwen op AI, of moeten we niet vertrouwen op AI?

Gaan we in wezen echt betrouwbare AI hebben?

Dat zijn oude en onopgeloste vragen. Laten we het uitpakken.

AI-ethiek en de strijd om betrouwbare AI

Velen binnen AI zijn van mening dat de ontwikkelaars van AI-systemen vertrouwen in AI kunnen krijgen door AI op de juiste manier te ontwerpen die betrouwbaar is. De essentie is dat je niet kunt hopen vertrouwen te winnen als AI in het begin niet schijnbaar betrouwbaar is. Door AI-systemen te maken op een manier die als betrouwbaar wordt ervaren, is de kans groot dat mensen AI accepteren en AI-gebruik overnemen.

Een probleem dat al zeurt bij deze betrouwbare AI-overweging, is dat we ons misschien al in een... tekort aan vertrouwen van het publiek als het om AI gaat. Je zou kunnen zeggen dat de AI die we al hebben gezien een gat heeft gegraven en het vertrouwen in enorme hoeveelheden heeft weggegooid. Dus, in plaats van te beginnen met een voldoende basis van betrouwbaarheid, zal AI op een verbazingwekkende manier uit het tekort moeten klimmen, klauwend voor elk gewenst greintje extra vertrouwen dat nodig is om mensen ervan te overtuigen dat AI in feite betrouwbaar is.

In deze uitdaging komen AI Ethics en AI Law.

AI Ethics en AI Law worstelen enorm om erachter te komen wat er nodig is om AI betrouwbaar te maken. Sommigen suggereren dat er een formule of ijzersterke wetten zijn die AI in de betrouwbare hemel zullen brengen. Anderen geven aan dat het hard werken en consistente en niet-aflatende naleving van AI Ethics en AI Law-principes zal vergen om het geroemde vertrouwen van de samenleving te krijgen.

Het hedendaagse raadsel over vertrouwen in AI is niet per se nieuw.

Je kunt gemakkelijk teruggaan naar het einde van de jaren negentig en de opkomst van een gewild verlangen naar 'vertrouwd computergebruik' uit die tijd traceren. Dit was een grootschalige poging van de tech-industrie om vast te stellen of computers alles bij elkaar genomen konden worden gemaakt op een manier die door de samenleving als betrouwbaar zou worden beschouwd.

Kernvragen bestonden uit:

  • Kan computerhardware zo gemaakt worden dat het betrouwbaar is?
  • Kan software zodanig worden gemaakt dat deze betrouwbaar is?
  • Kunnen we wereldwijde netwerkcomputers opzetten die betrouwbaar zijn?
  • En ga zo maar door.

Het heersende gevoel toen en dat tot op de dag van vandaag voortduurt, is dat betrouwbaar computergebruik een soort heilige graal blijft die helaas nog steeds niet helemaal binnen ons bereik ligt (zoals opgemerkt in een paper getiteld "Trustworthy AI" in de Communicatie van de ACM). Je zou overtuigend kunnen beweren dat AI nog een ander onderdeel is van de omhulling van de betrouwbaarheid van computers, maar AI maakt het nastreven van vertrouwen nog uitdagender en onzekerder. AI is de potentiële spoiler geworden in de strijd om betrouwbare computers te krijgen. Misschien wel de zwakste schakel in de keten als het ware.

Laten we eens kijken waarom AI onze huidschilfers ertoe heeft gebracht om minder dan betrouwbaar te zijn. Daarnaast zullen we de grondbeginselen van AI-ethiek onderzoeken, waarvan we hopen dat ze zullen helpen om het reeds semi-onderwater waargenomen vertrouwen (of borrelend wantrouwen) van de hedendaagse AI te ondersteunen. Voor mijn voortdurende en uitgebreide verslaggeving over AI-ethiek, zie: de link hier en de link hier, om er een paar te noemen.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethiekbegrippen. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Laten we dit koppelen aan de vraag over betrouwbare AI

We lijken zeker niet bereid om AI te vertrouwen die negatieve vooroordelen en discriminerende acties laat zien. Onze overtuiging zou in dat geval zijn dat een dergelijke AI beslist niet betrouwbaar is, dus we zouden geneigd zijn de AI actief te wantrouwen. Zonder overboord te gaan op een antropomorfe vergelijking (ik zal zo meer zeggen over de antropomorfisering van AI), zou een mens die ongewenste vooroordelen vertoonde ook worden beoordeeld als niet bijzonder betrouwbaar.

Duiken in vertrouwen en betrouwbaarheid

Misschien moeten we eens kijken naar wat we bedoelen als we beweren dat we iets of iemand wel of niet vertrouwen. Overweeg eerst een aantal alledaagse woordenboekdefinities van vertrouwen.

Voorbeelden van wat vertrouwen per definitie betekent, zijn:

  • Verzekerd vertrouwen op het karakter, de bekwaamheid, de kracht of de waarheid van iemand of iets (Merriam-Webster online woordenboek).
  • Vertrouwen op de integriteit, kracht, bekwaamheid, zekerheid, enz., van een persoon of ding (Dictionary.com)
  • Vast geloof in de betrouwbaarheid, waarheid, bekwaamheid of kracht van iemand of iets (Online woordenboek van Oxford Languages).

Ik wil erop wijzen dat al deze definities verwijzen naar "iemand" en ook verwijzen naar "iets" als potentieel betrouwbaar. Dit is opmerkelijk omdat sommigen beweren dat we alleen mensen vertrouwen en dat de daad van vertrouwen exclusief is voorbehouden aan de mensheid als ons doelwit van betrouwbaarheid. Niet zo. U kunt vertrouwen op uw broodrooster. Als het uw toast betrouwbaar lijkt te maken en routinematig werkt om dit te doen, kunt u zeker een schijn van vertrouwen hebben over de vraag of de broodrooster echt betrouwbaar is.

In diezelfde gedachtegang kan AI ook het onderwerp zijn van ons vertrouwensperspectief. De kans is groot dat vertrouwen in verband met AI een stuk ingewikkelder zal zijn dan een alledaagse broodrooster. Een broodrooster kan meestal maar een handvol acties uitvoeren. Een AI-systeem is waarschijnlijk veel complexer en lijkt minder transparant te werken. Ons vermogen om de betrouwbaarheid van AI te beoordelen en vast te stellen, is ongetwijfeld een stuk moeilijker en biedt verschillende uitdagingen.

Behalve dat het alleen maar complexer is, wordt gezegd dat een typisch AI-systeem niet-deterministisch is en mogelijk zelfregulerend of zelfaanpassend. We kunnen dat begrip kort onderzoeken.

Een deterministische machine heeft de neiging om steeds weer dezelfde dingen te doen, voorspelbaar en met een duidelijk waarneembaar patroon van hoe het werkt. Je zou kunnen zeggen dat een gewone broodrooster ongeveer op dezelfde manier roostert en roosterbedieningen heeft die het roosteren matigen, die over het algemeen voorspelbaar zijn door de persoon die de broodrooster gebruikt. Daarentegen zijn complexe AI-systemen vaak ontworpen om niet-deterministisch te zijn, wat betekent dat ze heel andere dingen kunnen doen dan je anders had verwacht. Dit zou gedeeltelijk ook verder kunnen worden versterkt als de AI is geschreven om zichzelf aan te passen, een aspect dat de AI met voordeel kan verbeteren in het geval van ML / DL, maar ook verontrustend kan veroorzaken dat de AI hapert of in de gelederen komt van AI-slechtheid. Je weet misschien niet wat je overkwam, bij wijze van spreken, omdat je volledig overrompeld werd door de acties van de AI.

Wat kunnen we doen om AI dichter bij betrouwbaarheid te brengen?

Eén benadering bestaat erin te proberen ervoor te zorgen dat degenen die AI bouwen en toepassen, zich houden aan een reeks AI-ethische voorschriften. Zoals deze AI-onderzoekers zeiden: “Vertrouwen is een houding dat een agent zich zal gedragen zoals verwacht en waarop hij kan vertrouwen om zijn doel te bereiken. Vertrouwen wordt verbroken na een fout of misverstand tussen de agent en de vertrouwende persoon. De psychologische staat van vertrouwen in AI is een opkomende eigenschap van een complex systeem, dat gewoonlijk vele cycli omvat van ontwerp, training, implementatie, prestatiemeting, regulering, herontwerp en omscholing” (aangegeven in de Communicatie van de ACM, "Trust, Regulation, and Human-in-the-Loop AI Within the European Region" door Stuart Middleton, Emmanuel Letouze, Ali Hossaini en Adriane Chapman, april 2022).

De essentie is dat als we AI-ontwikkelaars ertoe kunnen brengen zich aan ethische AI ​​te houden, ze hopelijk uiteindelijk betrouwbare AI zullen produceren. Dit is allemaal goed en wel, maar het lijkt enigszins onpraktisch op een real-world basis, hoewel het absoluut een pad is dat de moeite waard is om te volgen.

Dit is wat ik bedoel.

Stel dat AI-ontwikkelaars een ijverige inspanning leveren om een ​​AI-systeem te maken voor een bepaald doel dat we over het algemeen X noemen. Ze zorgen er zorgvuldig voor dat de AI zich houdt aan de transparantievoorschriften van AI-ethiek. Ze zorgen er scherp voor dat privacy op passende wijze is ingebouwd in de AI. Voor bijna alle gebruikelijke AI Ethics-principes zorgen de AI-bouwers er uitvoerig voor dat de AI voldoet aan het gegeven voorschrift.

Moet je die AI nu vertrouwen?

Sta me toe om je gedachten over die open vraag te laten doordringen.

Het blijkt dat cybercriminelen erin geslaagd zijn om de AI te infiltreren en de AI stiekem X te laten uitvoeren en toch ook de cyberhackers alle gegevens te geven die de AI verzamelt. Door dit te doen, ondermijnen deze boosdoeners verraderlijk het privacyvoorschrift. Je bent je er gelukkig niet van bewust dat dit gebeurt onder de motorkap van AI.

Met dat toegevoegde stukje informatie, zal ik je dezelfde vraag opnieuw stellen.

Vertrouw je die AI?

Ik durf te zeggen dat de meeste mensen meteen zouden verklaren dat ze dat zeker doen niet vertrouw op deze specifieke AI. Misschien hadden ze er eerder op vertrouwd. Ze kiezen er nu voor om de AI niet langer betrouwbaar te vinden.

Een paar belangrijke inzichten op basis van dit eenvoudige voorbeeld zijn het overwegen waard:

  • Dynamiek van vertrouwen. Zelfs de beste bedoelingen om alle basis te dekken om ervoor te zorgen dat AI Ethics wordt ingebouwd in een AI-systeem, zijn geen garantie voor wat de AI zou kunnen zijn of worden. Zodra de AI in gebruik is genomen, kunnen buitenstaanders de verworvenheden van ethische AI ​​mogelijk ondermijnen.
  • Vertrouwen van binnenuit ondermijnen. Het ondermijnen van de betrouwbaarheid hoeft niet per se buitenstaanders te zijn. Een insider die het AI-systeem regelmatig onderhoudt, kan een fout maken en de AI verzwakken in de richting van minder betrouwbaar. Deze AI-ontwikkelaar heeft misschien geen idee wat ze hebben gedaan.
  • Onbedoelde compromissen van vertrouwen. Een zichzelf aanpassende of zelfregulerende AI kan zich op een gegeven moment aanpassen en het onbetrouwbare terrein betreden. Misschien probeert de AI de transparantie van de AI te versterken en brengt tegelijkertijd en op ongepaste wijze de privacyfacetten in gevaar.
  • Verstrooiing van vertrouwen. Proberen om alle principes van AI-ethiek in dezelfde mate van betrouwbaarheid te bereiken, is meestal niet gemakkelijk haalbaar, omdat ze vaak over elkaar heen lopen of andere inherente potentiële conflicten hebben. Het is een nogal geïdealiseerd perspectief om te geloven dat alle ethische AI-regels dromerig op elkaar zijn afgestemd en allemaal in een even maximale mate haalbaar zijn.
  • Vertrouwen kan kostbaar zijn om te bereiken. De kosten om te proberen een eersteklas schijn van betrouwbare AI te bereiken via het uitvoeren van de verschillende uitgebreide en uitputtende stappen en het naleven van de litanie van AI-ethiekprincipes, zullen relatief hoog zijn. Je kunt gemakkelijk stellen dat de kosten onbetaalbaar zouden zijn in termen van het in gebruik nemen van sommige AI-systemen die anders een belangrijke waarde voor de samenleving zouden hebben, zelfs als de AI was, zullen we zeggen, minder dan ideaal uit een verlangen naar betrouwbaarheid.
  • En ga zo maar door.

Interpreteer de voorgaande opmerkingen niet verkeerd om te suggereren dat we op de een of andere manier de inspanning moeten afwenden om betrouwbare AI grondig te bouwen en in de praktijk te brengen. Je zou als het ware het kind met het badwater weggooien. De juiste interpretatie is dat we die vertrouwde activiteiten moeten doen om AI in een betrouwbare overweging te krijgen, en toch is dat alleen geen wondermiddel of wondermiddel.

Meervoudige paden naar betrouwbare AI

Er zijn belangrijke aanvullende meervoudige manieren om te streven naar betrouwbare AI.

Bijvoorbeeld, zoals ik eerder in mijn columns heb behandeld, is een groot aantal nieuw opkomende wet- en regelgeving met betrekking tot AI bedoeld om AI-makers ertoe aan te zetten betrouwbare AI te ontwikkelen, zie de link hier en de link hier.

Deze juridische vangrails zijn cruciaal als overkoepelend middel om ervoor te zorgen dat degenen die AI bedenken, volledig verantwoordelijk worden gehouden voor hun AI. Zonder dergelijke potentiële rechtsmiddelen en wettige straffen, zullen degenen die haastige AI op de markt brengen dit waarschijnlijk blijven doen met weinig of geen serieuze aandacht voor het bereiken van betrouwbare AI. Ik zou er met name aan willen toevoegen dat als die wetten en voorschriften slecht zijn opgesteld of onvoldoende worden uitgevoerd, ze helaas het streven naar betrouwbare AI kunnen ondermijnen, misschien ironisch en vreemd genoeg onbetrouwbare AI bevorderen boven betrouwbare AI (zie mijn columndiscussies voor verdere uitleg).

Ik ben ook een fervent voorstander geweest van wat ik vurig heb genoemd als AI beschermengelbots (zie mijn verslag op de link hier). Dit is een opkomende methode of benadering om vuur met vuur te bestrijden, namelijk het gebruik van AI om ons te helpen bij het omgaan met andere AI die al dan niet betrouwbaar is.

Ten eerste zal enige achtergrondcontext nuttig zijn.

Stel dat u ervoor kiest om te vertrouwen op een AI-systeem waarvan u niet zeker bent van de betrouwbaarheid ervan. Een belangrijk punt van zorg zou kunnen zijn dat u de enige bent in uw pogingen om uit te zoeken of de AI te vertrouwen is of niet. De AI is potentieel rekenkundig sneller dan u en kan van u profiteren. Je hebt iemand of iets aan je zijde nodig om te helpen.

Eén perspectief is dat er altijd een mens-in-the-loop moet zijn die je zal helpen als je gebruik maakt van een AI-systeem. Dit is echter een problematische oplossing. Als de AI in realtime werkt, wat we zo meteen zullen bespreken als het gaat om de komst van op AI gebaseerde zelfrijdende auto's, is het hebben van een mens-in-the-loop misschien niet voldoende. De AI zou in realtime kunnen handelen en tegen de tijd dat een aangewezen mens-in-the-loop in beeld komt om erachter te komen of de AI goed werkt, kan er al een catastrofaal resultaat zijn opgetreden.

Even terzijde, dit brengt een andere factor over vertrouwen naar voren. We kennen meestal een vertrouwensniveau toe op basis van de context of omstandigheid waarmee we worden geconfronteerd. U kunt er volledig op vertrouwen dat uw peuterzoon of -dochter trouw aan u is, maar als u aan het wandelen bent en besluit op de peuter te vertrouwen om u te vertellen of het veilig is om op de rand van een klif te stappen, denk ik dat u verstandig zou zijn om te overwegen of de peuter dat soort advies op leven of dood kan geven. Het kind kan dit oprecht en oprecht doen, en desondanks niet in staat zijn om dergelijk advies adequaat te geven.

Hetzelfde idee wordt geassocieerd met vertrouwen als het gaat om AI. Een AI-systeem dat u gebruikt om dammen of schaken te spelen, is waarschijnlijk niet betrokken bij beraadslagingen over leven of dood. U kunt zich meer op uw gemak voelen bij uw opdracht van vertrouwen. Een op AI gebaseerde zelfrijdende auto die met hoge snelheden over een snelweg raast, vereist een veel zwaarder niveau van vertrouwen. De geringste storing door het AI-aandrijfsysteem kan direct leiden tot uw dood en de dood van anderen.

In een gepubliceerd interview met Beena Ammanath, uitvoerend directeur van het Global Deloitte AI Institute en auteur van het boek: Betrouwbare AI, een vergelijkbare nadruk op het overwegen van de contextuele facetten van waar AI-betrouwbaarheid een rol speelt: “Als je een AI-oplossing bouwt die de diagnose van patiënten stelt, zijn eerlijkheid en vooringenomenheid super belangrijk. Maar als je een algoritme bouwt dat uitval van een straalmotor voorspelt, zijn eerlijkheid en vooringenomenheid niet zo belangrijk. Betrouwbare AI is echt een structuur om je op weg te helpen na te denken over de dimensies van vertrouwen binnen je organisatie” (VentureBeat, 22 maart 2022).

Als je het hebt over betrouwbare AI, kun je dit onderwerp op verschillende manieren interpreteren.

Bijvoorbeeld betrouwbare AI is iets dat we allemaal beschouwen als een wenselijk en ambitieus doel, namelijk dat we ernaar moeten streven betrouwbare AI te bedenken en uit te dragen. Er is nog een ander gebruik van de slogan. Een enigszins alternatief gebruik is dat: betrouwbare AI is een staat van conditie of meting, zodanig dat iemand zou kunnen beweren dat ze een AI-systeem hebben gemaakt dat een voorbeeld is van betrouwbare AI. Je kunt ook de zin gebruiken betrouwbare AI om een ​​methode of benadering voor te stellen die kan worden gebruikt om AI-betrouwbaarheid te bereiken. Enz.

In verband hiermee vertrouw ik erop dat u zich realiseert dat niet alle AI hetzelfde is en dat we ervoor moeten zorgen dat we geen algemene uitspraken doen over alle AI. Een bepaald AI-systeem zal waarschijnlijk aanzienlijk verschillen van een ander AI-systeem. Een van die AI-systemen kan zeer betrouwbaar zijn, terwijl de andere marginaal betrouwbaar kan zijn. Wees voorzichtig met het aannemen dat AI een monoliet is die ofwel volledig betrouwbaar is, ofwel helemaal niet betrouwbaar.

Dit is gewoon niet het geval.

Ik wil hierna kort ingaan op een deel van mijn lopende onderzoek naar betrouwbare AI dat u mogelijk interessant vindt, en over de ontstane rol van AI beschermengelbots.

Hier is hoe het gaat.

Je zou gewapend zijn met een AI-systeem (een AI-beschermengelbot) dat is ontworpen om de betrouwbaarheid van een ander AI-systeem te meten. De AI-beschermengelbot heeft als belangrijkste focus uw veiligheid. Zie dit alsof je de middelen hebt om de AI waarop je vertrouwt te controleren door een ander AI-systeem in je echte zak te hebben, misschien op je smartphone of andere dergelijke apparaten. Uw spreekwoordelijke AI-bewaker kan rekenen op een basis die de AI waarop u vertrouwt ook doet, werkt met hoge snelheden en berekent de situatie in realtime, veel sneller dan een mens-in-the-loop zou kunnen doen.

Je zou op het eerste gezicht kunnen denken dat de AI waarop je al vertrouwt, wat zou moeten hebben intern AI vangrails die hetzelfde doen als deze afzonderlijk berekenende AI beschermengelbot. Ja, dat zou zeker gewenst zijn. Een minpunt is dat de AI-vangrails die in een AI-systeem zijn ingebouwd, mogelijk integraal en nadelig zijn uitgelijnd met de AI als zodanig, waardoor de veronderstelde AI-vangrail in zekere zin niet langer in staat is om de AI onafhankelijk te verifiëren of te valideren.

Het contrasterende idee is dat uw AI-beschermengelbot een onafhankelijk of extern AI-mechanisme is dat verschilt van de AI waarop u vertrouwt. Het bevindt zich buiten de andere AI, blijft toegewijd aan jou en niet toegewijd aan de AI die wordt gecontroleerd of beoordeeld.

Een eenvoudige manier om hierover na te denken, kan worden uitgedrukt via de volgende vereenvoudigde, op vergelijkingen lijkende uitspraken. We zouden kunnen zeggen dat "P" potentieel "R" wil vertrouwen om een ​​bepaalde taak "X" uit te voeren:

Dit zou het volgende zijn als er alleen mensen bij betrokken zijn:

  • Persoon P vertrouwt persoon R om taak X uit te voeren.

Wanneer we ervoor kiezen om op AI te vertrouwen, verandert de verklaring als volgt:

  • Persoon P vertrouwt AI instantie-R om taak X uit te voeren.

We kunnen de AI-beschermengelbot toevoegen door dit te zeggen:

  • Persoon P vertrouwt AI instantie-R om taak X uit te voeren als wordt gecontroleerd door AI beschermengel bot instantie-Z

De AI-beschermengelbot beoordeelt onvermoeibaar en meedogenloos de AI waarop u vertrouwt. Als zodanig kan uw handige AI-bewaker u erop wijzen dat het vertrouwen van deze andere AI ongegrond is. Of de AI-bewaker kan elektronisch communiceren met de andere AI om te proberen ervoor te zorgen dat elke afwijking die niet betrouwbaar is, snel wordt rechtgezet, enzovoort (zie mijn bericht over dergelijke details op de link hier).

De Trusty Trust Reservoir Metafoor

Aangezien we het hebben over verschillende niveaus van vertrouwen, zou je een handige metafoor over betrouwbaarheid kunnen gebruiken door vertrouwen op te vatten als een soort reservoir.

Je hebt een bepaald vertrouwen in een bepaalde persoon of ding in een bepaalde omstandigheid op een bepaald moment. Het niveau van het vertrouwen zal stijgen of dalen, afhankelijk van wat er nog meer gebeurt met betrekking tot die specifieke persoon of dat ding. Het vertrouwen kan op een nulniveau zijn als je helemaal geen vertrouwen hebt in de persoon of het ding. Het vertrouwen kan negatief zijn als je het waagt om die persoon of dat ding te wantrouwen.

In het geval van AI-systemen zal uw vertrouwensreservoir voor de specifieke AI waarop u in een bepaalde omstandigheid vertrouwt stijgen of dalen, afhankelijk van uw inschatting van de betrouwbaarheid van de AI. Soms ben je je misschien goed bewust van dit variërende niveau van vertrouwen in de AI, terwijl je je in andere gevallen misschien minder bewust bent en meer door een voorgevoel te vellen over de betrouwbaarheid.

Manieren die we hierin hebben besproken om de vertrouwensniveaus voor AI te verhogen, zijn onder meer:

  • Naleving van AI-ethiek. Als de AI waarop u vertrouwt is ontworpen door te proberen de juiste AI Ethics-regels na te leven, zou u dit begrip waarschijnlijk gebruiken om het niveau van uw vertrouwensreservoir voor dat specifieke AI-systeem te verhogen. Even terzijde: het is ook mogelijk dat je generaliseert naar andere AI-systemen wat betreft hun betrouwbaarheid, hoewel dit soms een misleidende vorm kan zijn van wat ik noem AI vertrouwen aura verspreiden (wees hier voorzichtig mee!).
  • Gebruik een mens-in-de-lus. Als de AI een mens-in-de-loop heeft, zou je een positieve bijdrage kunnen leveren aan je waargenomen vertrouwen in de AI.
  • Stel wetten en voorschriften vast. Als er wet- en regelgeving is die verband houdt met dit specifieke type AI, kunt u ook uw vertrouwensniveau verhogen.
  • Gebruik een AI Guardian Angel Bot. Als je een AI-beschermengelbot bij de hand hebt, zal dit ook je vertrouwensniveau verder verhogen.

Zoals eerder vermeld, kan vertrouwen behoorlijk broos zijn en in een oogwenk uit elkaar vallen (dwz het vertrouwensreservoir dumpt snel en plotseling al het opgebouwde vertrouwen).

Stel je voor dat je in een op AI gebaseerde zelfrijdende auto zit en de AI die rijdt plotseling een radicale bocht naar rechts maakt, waardoor de wielen piepen en het autonome voertuig bijna tot een gevaarlijke kanteling wordt gedwongen. Wat zou er gebeuren met uw vertrouwensniveau? Het lijkt erop dat zelfs als u de AI eerder op een hoger vertrouwensniveau zou houden, u uw vertrouwensniveau drastisch en abrupt zou verlagen, verstandig.

Op dit moment van deze gewichtige discussie durf ik te wedden dat u extra illustratieve voorbeelden wenst die de aard en omvang van betrouwbare AI kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid als expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over het streven naar betrouwbare AI, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en betrouwbare AI

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te maken in zelfrijdende auto's en betrouwbare AI.

Vertrouwen is alles, vooral in het geval van op AI gebaseerde zelfrijdende auto's.

De samenleving lijkt argwanend te kijken naar de opkomst van zelfrijdende auto's. Aan de ene kant is er een grote hoop dat de komst van echte zelfrijdende auto's het aantal jaarlijkse auto-gerelateerde dodelijke slachtoffers aantoonbaar zal verminderen. Alleen al in de Verenigde Staten vallen jaarlijks ongeveer 40,000 doden en ongeveer 2.5 miljoen gewonden als gevolg van auto-ongelukken, zie mijn verzameling statistieken op de link hier. Mensen drinken en rijden. Mensen rijden terwijl ze afgeleid zijn. De taak van het besturen van een auto lijkt te bestaan ​​uit het zich herhaaldelijk en feilloos kunnen concentreren op het autorijden en het vermijden van auto-ongelukken. Als zodanig kunnen we dromerig hopen dat AI-aandrijfsystemen zelfrijdende auto's herhaaldelijk en feilloos zullen begeleiden. Je kunt zelfrijdende auto's zien als een twofer, bestaande uit het verminderen van het aantal doden en gewonden bij auto-ongelukken, samen met het potentieel beschikbaar maken van mobiliteit op een veel bredere en toegankelijkere basis.

Maar ondertussen doemt de bezorgdheid op over de maatschappelijke perceptie of zelfrijdende auto's veilig genoeg zullen zijn om op onze openbare wegen in het algemeen te zijn.

Als zelfs maar één zelfrijdende auto een crash of aanrijding krijgt die leidt tot een enkele dood of ernstig letsel, kun je waarschijnlijk verwachten dat het enigszins opgebouwde vertrouwen van vandaag in die op AI gebaseerde auto's zonder bestuurder abrupt zal dalen. We zagen dit gebeuren toen het nu beruchte incident plaatsvond in Arizona waarbij een enigszins (niet echt) zelfrijdende auto een voetganger aanreed en doodde (zie mijn bericht op deze link hier).

Sommige experts wijzen erop dat het oneerlijk en ongepast is om het vertrouwen van AI-zelfrijdende auto's te baseren op het feit dat slechts één zo'n volgende dodelijke crash of botsing de toch al relatief crashvrije openbare wegproeven zou kunnen ondermijnen. Bovendien, op een verdere oneerlijke basis, is de kans groot dat, ongeacht welk specifiek AI-zelfrijdende automerk of -model misschien verwikkeld raakt in een treurig incident, de samenleving ongetwijfeld alle zelfrijdende automerken de schuld geeft.

Het geheel van zelfrijdende auto's zou kunnen worden besmeurd en de industrie als geheel zou een enorme terugslag kunnen krijgen, wat kan leiden tot een mogelijke stopzetting van alle proeven op de openbare weg.

Een bijdrage aan een dergelijke terugslag is te vinden in de onzinnige verklaringen van uitgesproken voorstanders van zelfrijdende auto's dat alle auto's zonder bestuurder oncrashbaar zullen zijn. Dit idee van niet-crashbaar te zijn is niet alleen ronduit verkeerd (zie de link hier), is het verraderlijk de zelfrijdende auto-industrie aan het opzetten voor een totaal buitenspel van verwachtingen. Deze bizarre en onhaalbare uitspraken dat er nul doden zullen vallen als gevolg van zelfrijdende auto's, voeden de misvatting dat auto-ongelukken zonder bestuurder een zeker teken zijn dat de hele kit en kaboodle voor niets is.

Er is een duidelijke droefheid om te beseffen dat de vooruitgang in de richting van zelfrijdende auto's en de opeenstapeling van maatschappelijk vertrouwen in een oogwenk zou kunnen worden weggevaagd. Dat wordt een geweldige showcase over de broosheid van vertrouwen.

Conclusie

Veel autofabrikanten en zelfrijdende technologiebedrijven houden zich over het algemeen aan de principes van AI Ethics, om te proberen betrouwbare AI te bouwen en in de praktijk te brengen in termen van veilige en betrouwbare op AI gebaseerde zelfrijdende auto's. Realiseer je alsjeblieft dat sommige van die bedrijven sterker zijn en meer toegewijd zijn aan de ethische AI-regels dan andere. Er zijn ook af en toe marginale of beginnende zelfrijdende auto-gerelateerde startups die veel van de hoekstenen van AI Ethics terzijde lijken te schuiven (zie mijn recensie op de link hier).

Op andere fronten wordt geleidelijk nieuwe wet- en regelgeving met betrekking tot zelfrijdende auto's in de juridische boeken geplaatst. Of ze de nodige tanden hebben om ze te ondersteunen is een andere zaak, evenals of de handhaving van die wetten serieus wordt genomen of over het hoofd wordt gezien (zie mijn columns voor analyses hierover).

Hier zit ook de hightech hoek aan. Ik heb voorspeld dat we geleidelijk varianten van AI-beschermengelbots zullen zien die naar voren zullen komen in de arena van autonome voertuigen en zelfrijdende auto's. We zijn er nog niet. Dit zal vaker voorkomen naarmate de populariteit van zelfrijdende auto's meer wijdverbreid wordt.

Dit laatste punt brengt een beroemde regel over vertrouwen naar voren die u ongetwijfeld al uit uw hoofd kent.

Vertrouw, maar verifieer.

We kunnen onszelf toestaan ​​ons vertrouwen uit te breiden, misschien wel genereus. Ondertussen moeten we ook toekijken als een havik om ervoor te zorgen dat het vertrouwen dat we wekken wordt bevestigd door zowel woorden als daden. Laten we wat vertrouwen stellen in AI, maar eindeloos verifiëren dat we ons vertrouwen op de juiste manier stellen en met onze ogen wijd open.

Daar kun je me op vertrouwen.

Bron: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/