AI-ethiek en AI-wetgeving evolueren naar normen die de vooroordelen op het gebied van AI expliciet identificeren en beheren

Heb je ooit XNUMX kaart pick-up gespeeld?

Het is geen spel dat je normaal gesproken graag zou ondernemen. Dit is waarom. Iemand biedt je aan dat het een zogenaamd leuke sport is en als je het zoete aas neemt, gooien ze een heel pak speelkaarten in de lucht en vallen ze op de grond. De persoon geeft je dan een brutale glimlach en zegt dat je door moet gaan en de kaarten moet pakken. Dat is het hele spel.

grappenmaker!

Ik heb hier wel een enigszins doordachte vraag over.

Stel dat een van de kaarten onder een nabijgelegen bank gleed. Als je klaar was met het oppakken van alle kaarten, zou je weten dat er een ontbrak omdat je er maar eenenvijftig in je hand zou hebben.

De vraag is, kunt u bepalen welke kaart ontbrak?

Ik weet zeker dat je meteen zou zeggen dat je gemakkelijk zou kunnen achterhalen welke kaart je niet in handen had. Het enige wat u hoeft te doen is het dek in orde te brengen. U weet dat een standaardspel uit vier kleuren bestaat en dat binnen elke reeks de kaarten zijn genummerd van één tot tien en vervolgens in Boer, Vrouw en Koning.

Je weet dit omdat een standaard pak speelkaarten gebaseerd is op een standaard.

Whoa, die verklaring lijkt misschien een van die totaal voor de hand liggende beweringen. Nou ja, natuurlijk, een standaard speeldeck is gebaseerd op een standaard. We weten dat allemaal. Mijn punt is dat we, door een standaard te hebben, op de standaard kunnen vertrouwen wanneer dat nodig is. Behalve dat je kunt afleiden welke kaart er in een kaartspel ontbreekt, kun je ook gemakkelijk ontelbare bekende kaartspellen met andere mensen spelen. Als iemand eenmaal de regels van een spel te horen heeft gekregen, kan hij direct spelen omdat hij al volledig weet waar het kaartspel uit bestaat. Je hoeft ze niet uit te leggen dat het kaartspel vier kleuren en verschillend genummerde kaarten heeft. Ze weten al dat dat het geval is.

Waar ga ik hiermee naartoe?

Ik probeer je op een pad te brengen dat een essentieel middel is om vooruitgang te boeken op het gebied van AI en vooral op het gebied van AI-ethiek en ethische AI. Zie je, we moeten proberen met wijdverbreide en algemeen overeengekomen normen over AI-ethiek te komen. Als we dit kunnen doen, zal het de acceptatie van ethische AI ​​vergroten en aantoonbaar gericht zijn op het verbeteren van de AI-systemen die steeds maar weer op de markt worden gegooid (zoals een ongenummerd en ongeordend pak wildcards). Voor mijn voortdurende en uitgebreide verslaggeving over AI-ethiek, ethische AI ​​en AI-recht, zie: de link hier en de link hier, om er een paar te noemen.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Ik breng dit naar voren om een ​​basis te bieden voor mijn discussie hierin die zich zal concentreren op een bepaald segment of deel van het bredere domein van AI-ethiek, namelijk, zoals eerder vermeld, het specifieke element van AI-vooroordelen. De reden dat ik dit onderwerp ook met u deel, is dat een document dat is uitgegeven door het National Institute of Standards and Technology (NIST) ons probeert op weg te helpen naar een standaard die AI-vooroordelen kenmerkt. Het document is getiteld: Op weg naar een standaard voor het identificeren en beheren van vooroordelen in kunstmatige intelligentie door de auteurs Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt en Patrick Hall, en werd in maart 1270 gepubliceerd door het Amerikaanse ministerie van Handel, NIST Special Publication 2022.

We zullen deze handige en bemoedigende poging uitpakken om vast te stellen wat we bedoelen met AI-vooroordelen. Het oude gezegde is dat je niet kunt managen wat je niet kunt meten. Door een standaard te hebben die de verscheidenheid aan AI-vooroordelen uiteenzet, kunt u beginnen met het meten en beheren van de plaag van AI-vooroordelen.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, inclusief transparante en controleerbare methoden, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethiekbegrippen. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Aan de basis van veel van die belangrijke AI-ethische voorschriften ligt de verraderlijke aard van AI-vooroordelen.

Net als een pak kaarten, zou het zeker handig zijn als we de AI-vooroordelen op de een of andere manier zouden kunnen groeperen in een reeks "kleuren" of categorieën. Het NIST-document biedt inderdaad een voorgestelde groepering.

Er worden drie hoofdcategorieën voorgesteld:

1) Systemische vooroordelen

2) Statistische en computationele vooroordelen

3) Menselijke vooroordelen

Of alle AI-vooroordelen netjes binnen een van die drie categorieën passen, is zeker iets om te overwegen. Je kunt zeker stellen dat sommige AI-vooroordelen tegelijkertijd in één, twee of alle drie categorieën vallen. Bovendien zou je kunnen beweren dat meer categorieën het verdienen om genoemd te worden, zoals een vierde, vijfde, zesde of meer reeksen groepen.

Ik hoop dat u dat denkt, want we moeten iedereen betrekken bij het helpen vormgeven van deze normen. Als u zich zorgen maakt over de manier waarop deze normen voor het eerst vorm krijgen, dring ik er bij u op aan om die energie te gebruiken om de rest van ons te helpen om die ontluikende normen zo robuust en compleet te maken als ze maar kunnen worden gesneden.

Voor nu kunnen we de voorgestelde drie categorieën nader bekijken en zien met wat voor soort hand we tot nu toe zijn behandeld (ja, ik ga door met het gebruiken van een analogie met een pak speelkaarten, gedurende het hele geschreven stuk, kun je je onderste dollar inzetten op die niet zo verborgen aas van een thema).

Wat wordt bedoeld met te verwijzen naar systemische vooroordelen?

Dit is wat het NIST-document zegt: “Systemische vooroordelen zijn het gevolg van procedures en praktijken van bepaalde instellingen die werken op manieren die ertoe leiden dat bepaalde sociale groepen worden bevoordeeld of bevoordeeld en andere worden benadeeld of gedevalueerd. Dit hoeft niet het gevolg te zijn van een bewust vooroordeel of discriminatie, maar eerder van het volgen van bestaande regels of normen door de meerderheid. Institutioneel racisme en seksisme zijn de meest voorkomende voorbeelden” (merk op dat dit slechts een kort fragment is en lezers worden aangemoedigd om de volledigere uitleg te zien).

AI komt in de mix van systemische vooroordelen door een middel te bieden om die vooroordelen over te brengen en toe te passen in op AI gebaseerde apps. Telkens wanneer u een met AI doordrenkt stuk software gebruikt, kan het voor zover u weet een hele reeks vooroordelen bevatten die al in het systeem zijn ingebakken via de bedrijven en branchepraktijken die hebben geleid tot het maken van de AI. Volgens de NIST-studie: "Deze vooroordelen zijn aanwezig in de datasets die worden gebruikt in AI, en de institutionele normen, praktijken en processen gedurende de AI-levenscyclus en in de bredere cultuur en samenleving."

Overweeg vervolgens de reeks vooroordelen die worden bestempeld als statistische en computationele vooroordelen.

Het NIST-document stelt dit: “Statistische en computationele vooroordelen komen voort uit fouten die ontstaan ​​wanneer de steekproef niet representatief is voor de populatie. Deze vooroordelen komen voort uit systematische in tegenstelling tot willekeurige fouten en kunnen optreden bij afwezigheid van vooroordelen, partijdigheid of discriminerende bedoelingen. In AI-systemen zijn deze vooroordelen aanwezig in de datasets en algoritmische processen die worden gebruikt bij de ontwikkeling van AI-toepassingen, en ontstaan ​​ze vaak wanneer algoritmen worden getraind op één type data en niet verder kunnen worden geëxtrapoleerd dan die data.”

Dit type statistische en computationele vooringenomenheid wordt vaak verwerkt in een AI-systeem dat gebruikmaakt van Machine Learning (ML) en Deep Learning (DL). Om de hevige kwestie van hedendaagse ML/DL ter sprake te brengen, is een verwante zijlijn nodig over wat AI is en wat ML/DL is.

Laten we ervoor zorgen dat we op dezelfde lijn zitten over de aard van de hedendaagse AI.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de huidige AI niet in staat is om op enige manier te 'denken' op het niveau van menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning en Deep Learning, die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit brengt ons bij de derde categorie van de NIST-set van drie groepen, met name de rol van menselijke vooroordelen bij het ontstaan ​​van AI-vooroordelen. Dit is wat het NIST-document aangaf: “Menselijke vooroordelen weerspiegelen systematische fouten in het menselijk denken, gebaseerd op een beperkt aantal heuristische principes en voorspellende waarden voor eenvoudiger oordelende operaties. Deze vooroordelen zijn vaak impliciet en houden verband met hoe een individu of groep informatie waarneemt (zoals geautomatiseerde AI-output) om een ​​beslissing te nemen of ontbrekende of onbekende informatie in te vullen. Deze vooroordelen zijn alomtegenwoordig in de institutionele, groeps- en individuele besluitvormingsprocessen gedurende de AI-levenscyclus, en in het gebruik van AI-applicaties zodra ze zijn geïmplementeerd.”

Je hebt nu een snelle introductie tot de drie categorieën gekregen.

Ik wil graag wat extra stof tot nadenken met u delen, zoals verwoord in het NIST-document. Een grafiek in hun verhaal biedt een nuttige samenvatting van de belangrijkste vragen en overwegingen die ten grondslag liggen aan elk van de drie sets van AI-vooroordelen. Ik som ze hier op voor uw gemak van referentie en opbouw.

#1: Systemische vooroordelen

  • Wie wordt geteld en wie niet?

— Problemen met latente variabelen

— Ondervertegenwoordiging van gemarginaliseerde groepen

— Automatisering van ongelijkheden

— Ondervertegenwoordiging bij bepaling nutsfunctie

— Processen die de meerderheid/minderheid bevoordelen

— Culturele vooringenomenheid in de objectieve functie (beste voor individuen versus beste voor de groep)

  • Hoe weten we wat juist is?

— Versterking van ongelijkheden (groepen worden meer getroffen door meer gebruik van AI)

— Predictive policing meer negatief beïnvloed

— Wijdverbreide adoptie van ridesharing/zelfrijdende auto's/etc. kan het beleid wijzigen dat van invloed is op de bevolking op basis van gebruik

#2: Statistische en rekenkundige vooroordelen

  • Wie wordt geteld en wie niet?

— Steekproef- en selectiebias

— Proxyvariabelen gebruiken omdat ze gemakkelijker te meten zijn

— Automatiseringsbias

— Likertschaal (categorisch naar ordinaal naar kardinaal)

— Niet-lineair versus lineair

— Ecologische drogreden

— Minimaliseren van de L1 vs. L2 norm

— Algemene moeilijkheid bij het kwantificeren van contextuele verschijnselen

  • Hoe weten we wat juist is?

— Gebrek aan adequate kruisvalidatie

— Overlevingsvooroordeel

— Moeite met eerlijkheid

#3: Menselijke vooroordelen

  • Wie wordt geteld en wie niet?

— Observationele bias (straatlichteffect)

— Beschikbaarheidsbias (verankering)

— McNamara drogreden

— Groepsdenken leidt tot enge keuzes

— Rashomon-effect leidt tot subjectieve belangenbehartiging

— Moeite met het kwantificeren van doelstellingen kan leiden tot McNamara-drogreden

  • Hoe weten we wat juist is?

- Voorkeur voor bevestiging

— Automatiseringsbias

Op dit moment van deze gewichtige discussie durf ik te wedden dat u enkele illustratieve voorbeelden wenst die de drie categorieën van AI-vooroordelen zouden kunnen demonstreren. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid als expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over de drie voorgestelde categorieën van AI-vooroordelen, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI-biases

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te maken in zelfrijdende auto's en de ethische AI-mogelijkheden die de drie categorieën AI-vooroordelen met zich meebrengen.

Stel je voor dat een op AI gebaseerde zelfrijdende auto onderweg is in de straten van je buurt en veilig lijkt te rijden. In het begin had je speciale aandacht voor elke keer dat je een glimp van de zelfrijdende auto op kon vangen. Het autonome voertuig viel op door zijn rek met elektronische sensoren, waaronder videocamera's, radareenheden, LIDAR-apparaten en dergelijke. Na vele weken van de zelfrijdende auto die door je gemeente toert, merk je er nu amper iets van. Het is wat jou betreft niet meer dan een auto op de toch al drukke openbare weg.

Voor het geval je denkt dat het onmogelijk of ongeloofwaardig is om vertrouwd te raken met het zien van zelfrijdende auto's, heb ik vaak geschreven over hoe de locaties die binnen het bereik van zelfrijdende auto-experimenten vallen, geleidelijk gewend zijn geraakt aan het zien van de opgeknapte voertuigen, zie mijn analyse op deze link hier. Veel van de lokale bevolking veranderden uiteindelijk van mond-gapend rapt gapen naar nu een uitgestrekte geeuw van verveling uitstoten om getuige te zijn van die meanderende zelfrijdende auto's.

Waarschijnlijk de belangrijkste reden op dit moment dat ze de autonome voertuigen opmerken, is vanwege de irritatie- en ergernisfactor. De by-the-book AI-rijsystemen zorgen ervoor dat de auto's zich houden aan alle snelheidslimieten en verkeersregels. Voor hectische menselijke chauffeurs in hun traditionele door mensen bestuurde auto's, raak je soms geïrriteerd als je vastzit achter de strikt gezagsgetrouwe, op AI gebaseerde zelfrijdende auto's.

Dat is iets waar we misschien allemaal, terecht of onterecht, aan moeten wennen.

Terug naar ons verhaal.

We zullen hierna bekijken hoe systemische vooroordelen een rol kunnen spelen in deze context van zelfrijdende auto's.

Sommige experts zijn erg bezorgd dat zelfrijdende auto's het domein zullen zijn van alleen de rijken en de elite. Het kan zijn dat de kosten voor het gebruik van zelfrijdende auto's onbetaalbaar zullen zijn. Tenzij je veel geld hebt, zul je misschien nooit de binnenkant van een zelfrijdende auto zien. Degenen die zelfrijdende auto's zullen gebruiken, zullen rijk moeten zijn, zo wordt beweerd.

Als zodanig sporen sommigen verontrustend aan dat een vorm van systemische vooringenomenheid de komst van op AI gebaseerde zelfrijdende auto's zal doordringen. Het algemene industriële systeem voor autonome voertuigen als geheel zal zelfrijdende auto's uit de handen houden van mensen die arm of minder welvarend zijn. Dit hoeft niet per se met openlijke bedoelingen te zijn en het blijkt gewoon dat de enige denkbare manier om de zware kosten van het hebben van zelfrijdende auto's terug te verdienen, is om waanzinnig hoge prijzen te vragen.

Als je antwoordt dat er tegenwoordig zelfrijdende auto-experimenten zijn die de gewone mens kan gebruiken, dus het lijkt duidelijk dat je niet per se rijk hoeft te zijn, is het tegenargument dat dit een soort shell-spel is als het was. De autofabrikanten en zelfrijdende technologiebedrijven zijn zogenaamd bereid om het te laten lijken alsof de kosten geen substantiële belemmering zullen vormen. Ze doen dit nu voor public relations-doeleinden en zullen de prijzen opdrijven zodra ze de rimpels hebben ontdekt. Een samenzweerder zou zelfs kunnen beweren dat de 'proefkonijnen' als gewone mensen verderfelijk worden gebruikt om de rijken in staat te stellen uiteindelijk rijker te worden.

Dus, gezien deze nogal controversiële kwestie, en mijn eigen twee cent op dit smerige onderwerp plaatsend, geloof ik niet dat zelfrijdende auto's te duur zullen zijn voor dagelijks gebruik. Ik zal niet ingaan op de details hierin over mijn basis voor het maken van een dergelijke claim en nodig u uit om mijn bewuste discussies te zien op de link hier en ook bij de link hier.

Verderop kunnen we de kwestie van AI-gerelateerde statistische en computationele vooroordelen bekijken.

Denk na over de schijnbaar onbelangrijke vraag waar zelfrijdende auto's zullen rondzwerven om passagiers op te halen. Dit lijkt een zeer onschuldig onderwerp. We zullen het verhaal van de stad of stad met zelfrijdende auto's gebruiken om het misschien verrassend potentiële spook van AI-gerelateerde statistische en computationele vooroordelen te benadrukken.

Ga er in eerste instantie vanuit dat de AI de zelfrijdende auto's door de hele stad zwierf. Iedereen die een ritje in de zelfrijdende auto wilde aanvragen, had in wezen een gelijke kans om er een aan te spreken. Geleidelijk aan begon de AI de zelfrijdende auto's voornamelijk in slechts één deel van de stad te laten rondzwerven. Deze sectie was een grotere geldmaker en het AI-systeem was geprogrammeerd om te proberen de inkomsten te maximaliseren als onderdeel van het gebruik in de gemeenschap.

Leden van de gemeenschap in de verarmde delen van de stad konden minder snel een ritje krijgen vanuit een zelfrijdende auto. Dit kwam omdat de zelfrijdende auto's verder weg waren en rondzwierven in het hogere inkomstengedeelte van de omgeving. Wanneer er een verzoek binnenkwam uit een verafgelegen deel van de stad, zou elk verzoek van een dichterbij gelegen locatie die waarschijnlijk in het 'gewaardeerde' deel van de stad was, een hogere prioriteit krijgen. Uiteindelijk was het bijna onmogelijk om een ​​zelfrijdende auto te krijgen op een andere plaats dan in het rijkere deel van de stad, en dat was ergerlijk voor degenen die in die nu uitgehongerde gebieden woonden.

Je zou kunnen stellen dat de AI min of meer is terechtgekomen op een vorm van statistische en computationele vooroordelen, vergelijkbaar met een vorm van proxy-discriminatie (ook vaak indirecte discriminatie genoemd). De AI was niet geprogrammeerd om die armere buurten te vermijden. In plaats daarvan heeft het "geleerd" om dit te doen via het gebruik van de ML/DL.

Er werd aangenomen dat de AI nooit in dat soort schandelijke drijfzand zou vallen. Er was geen gespecialiseerde monitoring opgezet om bij te houden waar de op AI gebaseerde zelfrijdende auto's naartoe gingen. Pas nadat leden van de gemeenschap begonnen te klagen, realiseerden de stadsleiders zich wat er aan de hand was. Voor meer informatie over dit soort stadsbrede problemen die autonome voertuigen en zelfrijdende auto's gaan opleveren, zie mijn berichtgeving op: deze link hier en die een door Harvard geleid onderzoek beschrijft waarvan ik co-auteur was over dit onderwerp.

Voor de derde categorie menselijke vooroordelen in verband met AI-vooroordelen, gaan we naar een voorbeeld waarbij de AI bepaalt of hij moet stoppen voor wachtende voetgangers die geen voorrang hebben om een ​​straat over te steken.

U hebt ongetwijfeld gereden en voetgangers tegengekomen die stonden te wachten om de straat over te steken en toch geen voorrang hadden. Dit betekende dat u de vrijheid had om te stoppen en ze te laten oversteken. Je zou kunnen doorgaan zonder ze te laten oversteken en toch volledig binnen de wettelijke rijregels te blijven.

Studies naar hoe menselijke bestuurders beslissen om al dan niet te stoppen voor dergelijke voetgangers hebben gesuggereerd dat menselijke bestuurders de keuze soms maken op basis van ongewenste vooroordelen. Een menselijke bestuurder kan de voetganger in de gaten houden en ervoor kiezen om niet te stoppen, ook al zou hij zijn gestopt als de voetganger er anders uit had gezien, bijvoorbeeld op basis van ras of geslacht. Ik heb dit onderzocht bij de link hier.

Stel je voor dat de op AI gebaseerde zelfrijdende auto's zijn geprogrammeerd om te gaan met de vraag of ze moeten stoppen of niet voor voetgangers die geen voorrang hebben. Hier is hoe de AI-ontwikkelaars besloten om deze taak te programmeren. Ze verzamelden gegevens van de videocamera's van de stad die overal in de stad zijn geplaatst. De gegevens tonen menselijke bestuurders die stoppen voor voetgangers die geen voorrang hebben en menselijke bestuurders die niet stoppen. Het wordt allemaal verzameld in een grote dataset.

Door gebruik te maken van Machine Learning en Deep Learning worden de gegevens computationeel gemodelleerd. Het AI-aandrijfsysteem gebruikt dit model vervolgens om te beslissen wanneer te stoppen of niet. Over het algemeen is het idee dat waar de lokale gewoonte ook uit bestaat, de AI de zelfrijdende auto zo aanstuurt.

Tot verbazing van de stadsleiders en de bewoners koos de AI blijkbaar voor stoppen of niet stoppen op basis van de leeftijd van de voetganger. Hoe kon dat gebeuren?

Bij nadere bestudering van de video van de discretie van menselijke bestuurders, blijkt dat veel van de gevallen waarin niet werd gestopt, voetgangers met een wandelstok van een bejaarde met zich meebrachten. Menselijke chauffeurs waren schijnbaar niet bereid om te stoppen en een bejaarde persoon de straat over te laten steken, vermoedelijk vanwege de veronderstelde tijd die iemand nodig zou hebben om de reis te maken. Als de voetganger eruitzag alsof hij snel de straat over kon steken en de wachttijd van de bestuurder tot een minimum kon beperken, waren de bestuurders meer geneigd om de persoon over te laten steken.

Dit raakte diep begraven in het AI-aandrijfsysteem. De sensoren van de zelfrijdende auto zouden de wachtende voetganger scannen, deze gegevens in het ML/DL-model invoeren en het model zou aan de AI doorgeven of het moest stoppen of doorgaan. Elke visuele indicatie dat de voetganger langzaam zou kunnen oversteken, zoals het gebruik van een wandelstok, werd wiskundig gebruikt om te bepalen of het AI-aandrijfsysteem de wachtende voetganger moest laten oversteken of niet.

Je zou kunnen stellen dat dit een afhankelijkheid was van een reeds bestaande menselijke vooringenomenheid.

Conclusie

Voor nu wat laatste gedachten.

Er is een populair gezegde dat je de kaarten die je krijgt niet kunt veranderen en in plaats daarvan moet leren hoe je adequaat kunt spelen met welke hand je ook hebt gekregen.

In het geval van AI-vooroordelen, als we er niet vurig bovenop komen om AI-ethiek over de hele linie te vestigen en vooral de karakterisering van AI-vooroordelen te verstevigen, zullen het soort handen waarmee we te maken krijgen overlopen van louche onethische, en mogelijk onwettige laag. We moeten om te beginnen voorkomen dat die kaarten ooit worden gedeeld. Het dappere doel om ethische AI-normen te creëren en af ​​te kondigen, is een cruciaal hulpmiddel om de stijgende tsunami van aanstaande te bestrijden AI voor slecht.

Je kunt beslist naar de bank stappen dat de ongebreidelde AI-vooringenomenheid en onethische AI ​​als een dun kaartenhuis zullen zijn, op zichzelf zal instorten en waarschijnlijk rampzalig zal zijn voor ons allemaal.

Laten we spelen om te winnen, en dat doen we met gepaste ethische AI.

Bron: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/