AI-ethiek die zegt dat AI vooral moet worden ingezet wanneer menselijke vooroordelen in overvloed zijn

Mensen hebben hun beperkingen leren kennen.

Je herinnert je misschien de verwante beroemde regel over het kennen van onze beperkingen, zoals op harde toon geuit door het personage Dirty Harry in de film uit 1973 getiteld Magnum Force (volgens de gesproken woorden van acteur Clint Eastwood in zijn gedenkwaardige rol als inspecteur Harry Callahan). Het algemene idee is dat we soms de neiging hebben om onze eigen grenzen over het hoofd te zien en ons dienovereenkomstig in warm water te krijgen. Of het nu komt door overmoed, egocentrisch zijn of gewoon blind voor onze eigen capaciteiten, het voorschrift om ons bewust te zijn van en expliciet rekening te houden met onze neigingen en tekortkomingen is buitengewoon verstandig en nuttig.

Laten we een nieuwe draai geven aan het wijze advies.

Kunstmatige intelligentie (AI) heeft zijn beperkingen leren kennen.

Wat bedoel ik met die variant van de vereerde slogan?

Het blijkt dat de aanvankelijke haast om moderne AI in gebruik te nemen als een hoopvolle oplosser van de wereldproblemen, bezoedeld en totaal vertroebeld is door het besef dat de AI van vandaag nogal ernstige beperkingen heeft. We gingen van de opbeurende koppen van AI voorgoed en zijn we steeds meer verstrikt geraakt in AI voor slecht. Zie je, er zijn veel AI-systemen ontwikkeld en gebruikt met allerlei ongewenste raciale en gendervooroordelen, en een groot aantal andere dergelijke verschrikkelijke ongelijkheden.

Voor mijn uitgebreide en doorlopende berichtgeving over AI Ethics en Ethical AI, zie: de link hier en de link hier, om er een paar te noemen.

De vooroordelen die in deze AI-systemen worden ontdekt, zijn niet van het zullen we zeggen "opzettelijke" type dat we zouden toeschrijven aan menselijk gedrag. Ik noem dit om te benadrukken dat de AI van vandaag niet bewust is. Ondanks die schetterende koppen die anders suggereren, is er gewoon geen enkele AI die ook maar in de buurt komt van gevoel. Bovendien weten we niet hoe we AI in de categorie van het bewustzijn kunnen krijgen, en niemand kan met zekerheid zeggen of we ooit AI-bewustzijn zullen bereiken. Misschien gaat het ooit gebeuren, of misschien ook niet.

Dus mijn punt is dat we geen specifieke intentie kunnen toewijzen aan het soort AI dat we momenteel bezitten. Dat gezegd hebbende, kunnen we de intentie overvloedig toewijzen aan degenen die AI-systemen maken. Sommige AI-ontwikkelaars zijn zich niet bewust van het feit dat ze een AI-systeem hebben bedacht dat onsmakelijke en mogelijk illegale vooroordelen bevat. Ondertussen realiseren andere AI-ontwikkelaars zich dat ze vooroordelen in hun AI-systemen doordrenken, waardoor ze dit mogelijk op een doelgerichte manier doen.

Hoe dan ook, de uitkomst is niettemin nog steeds ongepast en waarschijnlijk onwettig.

Er worden grote inspanningen geleverd om AI Ethics-principes te verspreiden die AI-ontwikkelaars zullen informeren en geschikte begeleiding zullen bieden om te voorkomen dat vooroordelen in hun AI-systemen worden ingebed. Dit zal op een twofer-manier helpen. Ten eerste zullen degenen die AI maken niet langer het excuus hebben dat ze gewoon niet wisten welke voorschriften moesten worden gevolgd. Ten tweede zullen degenen die afwijken van de ethische AI-voorwaarden gemakkelijker worden gepakt en getoond als afwenden van datgene waarvoor ze waren gewaarschuwd om zowel te doen als niet te doen.

Laten we even stilstaan ​​bij enkele van de belangrijkste ethische AI-regels om te illustreren waar AI-bouwers aan zouden moeten denken en strikt vanuit een AI-ethiek-standpunt zouden moeten handelen.

Zoals verklaard door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, inclusief transparante en controleerbare methoden, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om over het algemeen wat te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is als de AI-codering het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Houd er rekening mee dat er een dorp voor nodig is om AI te bedenken en uit te voeren. Waarvoor het hele dorp scherp moet zijn op AI Ethics.

Hoe dan ook, nu ik op tafel heb gekregen dat AI vooroordelen kan bevatten, kunnen we het misschien allemaal eens zijn met deze twee schijnbare feiten:

1. Mensen kunnen talloze ongewenste vooroordelen hebben en kunnen ernaar handelen

2. AI kan tal van ongewenste vooroordelen hebben en kan inspelen op die vooroordelen

Ik heb een beetje een hekel aan het stapelen van mensen versus AI in die context, omdat het op de een of andere manier zou kunnen impliceren dat AI bewuste capaciteiten heeft die vergelijkbaar zijn met die van mensen. Dit is zeker niet zo. Ik kom even later in deze discussie terug op de toenemende bezorgdheid over de antropomorfisering van AI.

Wat is erger, mensen die ongewenste vooroordelen vertonen of AI die dat doet?

Ik durf te zeggen dat de vraag een van die strenge keuzes oplevert. Het is de spreekwoordelijke minste van twee kwaden, zou men kunnen beweren. We zouden willen dat mensen geen ongewenste vooroordelen belichaamden. We zouden verder willen dat zelfs als mensen ongewenste vooroordelen hebben, ze niet naar die vooroordelen zullen handelen. Hetzelfde kan treffend gezegd worden van AI. We zouden willen dat AI geen ongewenste vooroordelen insluit en dat zelfs als er zulke intern gecodeerde vooroordelen zijn, de AI er in ieder geval niet naar zou handelen.

Wensen beheersen echter niet noodzakelijk de wereld (voor mijn analyse van de stijgende en verontrustende schijn van zogenaamde AI Wensvervulling door de samenleving als geheel, zie de link hier).

Oké, we willen natuurlijk dat mensen hun beperkingen kennen. Het is belangrijk om te herkennen wanneer je ongewenste vooroordelen hebt. Het is even belangrijk om te proberen te voorkomen dat die ongewenste vooroordelen in uw acties en beslissingen terechtkomen. Bedrijven proberen tegenwoordig allerlei benaderingen om te voorkomen dat hun werknemers in de onaangename vooroordelen vallen. Medewerkers krijgen gespecialiseerde trainingen over hoe ze hun werk op ethisch verantwoorde wijze kunnen uitvoeren. Processen worden gevormd rond werknemers om hen te waarschuwen wanneer ze onethische zeden lijken te vertonen. Enzovoort.

Een andere manier om met mensen en hun ongewenste vooroordelen om te gaan, zou zijn om op mensen gebaseerd werk te automatiseren. Ja, verwijder gewoon de mens uit de lus. Sta niet toe dat een mens een besluitvormende taak uitvoert en je hebt vermoedelijk geen slepende zorgen meer over de menselijke houding ten opzichte van ongewenste vooroordelen. Er is geen mens bij betrokken en daarmee lijkt het probleem van mogelijke menselijke vooroordelen opgelost.

Ik breng dit naar voren omdat we getuige zijn van een geleidelijke en enorme verschuiving naar het gebruik van AI op een manier waarop beslissingen worden genomen door algoritmen (ADM). Als je een menselijke werknemer kunt vervangen door AI, is de kans groot dat er veel voordelen ontstaan. Zoals eerder vermeld, zou je je niet langer druk maken over de menselijke vooroordelen van die menselijke werker (degene die dat werk niet meer doet). De kans is groot dat de AI over het algemeen minder duur zal zijn in vergelijking met een langetermijnhorizon. Je rekent af met alle andere diverse moeilijkheden die gepaard gaan met menselijke werkers. Enz.

Een stelling die terrein wint lijkt deze te zijn: Wanneer u probeert te beslissen waar u AI het beste kunt plaatsen, kijk dan eerst naar instellingen die al leiden tot ongewenste menselijke vooroordelen van uw werknemers en waarvoor die vooroordelen bepaalde besluitvormingstaken ondermijnen of anderszins buitensporig ingewikkeld maken.

Waar het op neerkomt, is dat het verstandig lijkt om het meeste waar voor je geld te krijgen in termen van investeren in AI door je volledig te richten op zeer blootgestelde menselijke besluitvormingstaken die moeilijk te beheersen zijn vanuit een ongewenst vooringenomen infusieperspectief. Verwijder de menselijke werkers in die rol. Vervang ze door AI. De veronderstelling is dat AI zulke ongewenste vooroordelen niet zou hebben. Daarom kunt u uw cake hebben en deze ook opeten, namelijk de beslissingstaken laten uitvoeren en dit doen zonder het ethische en juridische spook van ongewenste vooroordelen.

Als je dat uitzoekt, zou de ROI (return on investment) de adoptie van AI waarschijnlijk een no-brainer keuze maken.

Hier is hoe dat meestal uitpakt.

Kijk door uw hele bedrijf heen en probeer de besluitvormingstaken te identificeren die van invloed zijn op klanten. Van die taken, welke zullen het meest waarschijnlijk ongepast worden beïnvloed als de werknemers ongewenste vooroordelen belichamen? Als je al geprobeerd hebt om die vooroordelen in toom te houden, laat je de dingen misschien zoals ze zijn. Aan de andere kant, als de vooroordelen steeds weer verschijnen en de inspanning om ze uit te roeien lastig is, overweeg dan om wat relevante AI in die rol te laten vallen. Houd de arbeiders niet in de mix, omdat ze de AI kunnen negeren of de AI rechtstreeks terug in de afgrond van de ongewenste vooroordelen kunnen duwen. Zorg er ook voor dat de AI de taak vakkundig kan uitvoeren en dat je de besluitvormingsfacetten die nodig zijn om de taak uit te voeren voldoende hebt vastgelegd.

Afspoelen en herhalen.

Ik realiseer me dat dit een eenvoudig idee lijkt, maar besef dat er veel manieren zijn waarop het vervangen van menselijke werknemers door AI gemakkelijk mis kan gaan. Veel bedrijven stonden te popelen om dergelijke acties te ondernemen en dachten niet goed na over hoe ze dat moesten doen. Als gevolg hiervan maakten ze vaak een veel grotere puinhoop dan ze in het begin hadden.

Ik wil duidelijk maken en benadrukken dat AI geen wondermiddel is.

Daarover gesproken, er is één groot probleem met de netheid van het schijnbaar weggooien van de door mensen bevooroordeelde besluitvormers met de zogenaamd onbevooroordeelde AI. Het probleem is dat je misschien slechts de ene reeks ongewenste vooroordelen vervangt door een andere. Volgens de eerdere indicatie kan AI ongewenste vooroordelen bevatten en op die vooroordelen reageren. Een brutale veronderstelling maken dat het verwisselen van bevooroordeelde mensen voor onbevooroordeelde AI niet alles is wat het is.

Kortom, hier is de deal bij het bekijken van de zaak strikt vanuit de vooringenomenheidsfactoren:

  • De AI heeft geen ongewenste vooroordelen en daarom is de op AI gebaseerde ADM handig om in te zetten
  • De AI heeft dezelfde ongewenste vooroordelen als de mensen die worden vervangen en daarom is de op AI gebaseerde ADM verontrustend
  • De AI introduceert nieuwe ongewenste vooroordelen die verder gaan dan die van de vervangende mensen en zal de zaken waarschijnlijk dienovereenkomstig verergeren
  • De AI lijkt in eerste instantie prima en wankelt dan geleidelijk in ongewenste vooroordelen
  • Overige

Die mogelijkheden kunnen we kort uit de doeken doen.

De eerste is de geïdealiseerde versie van wat er zou kunnen gebeuren. De AI heeft geen ongewenste vooroordelen. Je zet de AI op zijn plaats en het doet het werk uitstekend. Goed voor je! Je zou natuurlijk hopen dat je ook op een handige manier de verplaatsing van menselijke arbeiders als gevolg van de AI-opname hebt aangepakt.

In het tweede geval installeer je de AI en ontdek je dat de AI dezelfde ongewenste vooroordelen vertoont die de menselijke werkers hadden. Hoe kan dit? Een veelgebruikte manier om in deze val te trappen is door gebruik te maken van Machine Learning (ML) en Deep Learning (DL) op basis van verzamelde gegevens over hoe de mensen in de rol eerder hun beslissingen namen.

Sta me toe het even uit te leggen.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als de mensen die het werk jarenlang hebben gedaan, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. De computerpatroonmatching van Machine Learning of Deep Learning zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van de modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Alles bij elkaar genomen, zou je terug bij af kunnen komen. Dezelfde ongewenste vooroordelen van mensen worden nu computationeel weerspiegeld in het AI-systeem. Je hebt de vooroordelen niet uitgeroeid.

Erger nog, u zult zich minder snel realiseren dat de AI vooroordelen heeft. In het geval van mensen zou je normaal gesproken op je hoede kunnen zijn dat mensen ongewenste vooroordelen hebben. Dit is een basis verwachting. Het gebruik van AI kan leiders doen geloven dat automatisering elke vorm van menselijke vooringenomenheid volledig heeft weggenomen. Ze maken zich er dus schuldig aan dat ze zichzelf in de voet hebben geschoten. Ze hebben mensen met schijnbaar bekende ongewenste vooroordelen verwijderd, vervangen door AI waarvan werd gedacht dat ze niet zulke vooroordelen hadden, en toch hebben ze nu AI in gebruik genomen vol met dezelfde vooroordelen waarvan al bekend was dat ze bestonden.

Dit kan dingen echt scheel maken. Je hebt misschien andere vangrails verwijderd die werden gebruikt met de menselijke werkers die waren opgericht om de reeds verwachte menselijke vooroordelen te detecteren en te voorkomen. De AI heeft nu vrij spel. Er is niets om het op te vangen voordat je iets doet. De AI zou je dan op een streng pad kunnen leiden van de enorme opeenstapeling van vooringenomen acties.

En je bevindt je in de ongemakkelijke en misschien aansprakelijke houding die je ooit kende over de vooroordelen en die je nu hebt toegestaan ​​dat die vooroordelen een ravage aanrichten. Het is misschien één ding om nog nooit zulke ongewenste vooroordelen te zijn tegengekomen en dan plotseling uit het niets springt de AI ze op. Je zou dit kunnen proberen te excuseren met de "wie had het geraden" soort afleider (misschien niet erg overtuigend). Maar om nu AI te hebben opgezet die precies dezelfde ongewenst bevooroordeelde acties doet als voorheen, nou, je excuses worden dunner en zwakker.

Een draai hieraan houdt in dat de AI ongewenste vooroordelen vertoont die niet eerder waren aangetroffen toen de mensen de taak uitvoerden. Je zou kunnen zeggen dat dit misschien moeilijker te voorkomen is, omdat het gaat om 'nieuwe' vooroordelen waar het bedrijf voorheen niet naar op zoek was. Maar uiteindelijk zullen excuses je misschien niet veel verlichting bieden. Als het AI-systeem zich zowel op onethisch als onwettig terrein heeft gewaagd, is je gans misschien gaar.

Een ander facet om in gedachten te houden is dat de AI prima kan beginnen en zich dan een weg baant naar ongewenste vooroordelen. Dit is vooral waarschijnlijk wanneer het gebruik van Machine Learning of Deep Learning continu plaatsvindt om de AI up-to-date te houden. Of de ML/DL nu in realtime werkt of periodiek updates uitvoert, de aandacht moet uitgaan naar de vraag of de AI mogelijk gegevens opneemt die nu vooroordelen bevatten en die voorheen niet aanwezig waren.

Voor leiders die denken dat ze een gratis lunch krijgen door met een toverstaf te zwaaien om bevooroordeelde menselijke werkers te vervangen door AI, staan ​​ze voor een zeer ruw ontwaken. Zie mijn discussie over het belang van het machtigen van leiders met de voorschriften van AI Ethics op de link hier.

Op dit moment van deze discussie durf ik te wedden dat u op zoek bent naar enkele praktijkvoorbeelden die het raadsel zouden kunnen aantonen van het vervangen (of niet) van menselijke ongewenste vooroordelen door op AI gebaseerde ongewenste vooroordelen.

Ik ben blij dat je het vraagt.

Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over ongewenste vooroordelen in AI, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarvan de AI de auto volledig alleen bestuurt en dat er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, waarvan we nog niet eens weten of dit mogelijk zal zijn en hoe lang het duurt om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI met ongewenste vooroordelen

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te maken in zelfrijdende auto's en de ethische AI-mogelijkheden die de verkenning van AI en ongewenste vooroordelen met zich meebrengen.

Laten we een eenvoudig duidelijk voorbeeld gebruiken. Een op AI gebaseerde zelfrijdende auto is onderweg in de straten van uw buurt en lijkt veilig te rijden. In het begin had je speciale aandacht voor elke keer dat je een glimp van de zelfrijdende auto op kon vangen. Het autonome voertuig viel op door zijn rek met elektronische sensoren, waaronder videocamera's, radareenheden, LIDAR-apparaten en dergelijke. Na vele weken van de zelfrijdende auto die door je gemeente toert, merk je er nu amper iets van. Het is wat jou betreft niet meer dan een auto op de toch al drukke openbare weg.

Voor het geval je denkt dat het onmogelijk of ongeloofwaardig is om vertrouwd te raken met het zien van zelfrijdende auto's, heb ik vaak geschreven over hoe de locaties die binnen het bereik van zelfrijdende auto-experimenten vallen, geleidelijk gewend zijn geraakt aan het zien van de opgeknapte voertuigen, zie mijn analyse op deze link hier. Veel van de lokale bevolking veranderden uiteindelijk van mond-gapend rapt gapen naar nu een uitgestrekte geeuw van verveling uitstoten om getuige te zijn van die meanderende zelfrijdende auto's.

Waarschijnlijk de belangrijkste reden op dit moment dat ze de autonome voertuigen opmerken, is vanwege de irritatie- en ergernisfactor. De by-the-book AI-rijsystemen zorgen ervoor dat de auto's zich houden aan alle snelheidslimieten en verkeersregels. Voor hectische menselijke chauffeurs in hun traditionele door mensen bestuurde auto's, raak je soms geïrriteerd als je vastzit achter de strikt gezagsgetrouwe, op AI gebaseerde zelfrijdende auto's.

Dat is iets waar we misschien allemaal, terecht of onterecht, aan moeten wennen.

Terug naar ons verhaal.

Het blijkt dat er twee ongepaste zorgen beginnen te ontstaan ​​over de verder onschuldige en algemeen toegejuichte op AI gebaseerde zelfrijdende auto's, met name:

a. Waar de AI door de zelfrijdende auto's dwaalt om ritten op te halen, is een angstige zorg geworden in de gemeenschap in het algemeen

b. Hoe de AI omgaat met wachtende voetgangers die geen voorrang hebben, is ook een steeds groter probleem

Aanvankelijk zwierf de AI de zelfrijdende auto's door de hele stad. Iedereen die een ritje in de zelfrijdende auto wilde aanvragen, had in wezen een gelijke kans om er een aan te spreken. Geleidelijk aan begon de AI de zelfrijdende auto's voornamelijk in slechts één deel van de stad te laten rondzwerven. Deze sectie was een grotere geldmaker en het AI-systeem was geprogrammeerd om te proberen de inkomsten te maximaliseren als onderdeel van het gebruik in de gemeenschap.

Leden van de gemeenschap in de verarmde delen van de stad konden minder snel een ritje krijgen vanuit een zelfrijdende auto. Dit kwam omdat de zelfrijdende auto's verder weg waren en rondzwierven in het hogere inkomstengedeelte van de omgeving. Wanneer er een verzoek binnenkwam uit een verafgelegen deel van de stad, zou elk verzoek van een dichterbij gelegen locatie die waarschijnlijk in het 'gewaardeerde' deel van de stad was, een hogere prioriteit krijgen. Uiteindelijk was het bijna onmogelijk om een ​​zelfrijdende auto te krijgen op een andere plaats dan in het rijkere deel van de stad, en dat was ergerlijk voor degenen die in die nu uitgehongerde gebieden woonden.

Je zou kunnen stellen dat de AI min of meer op een vorm van proxy-discriminatie is beland (ook vaak indirecte discriminatie genoemd). De AI was niet geprogrammeerd om die armere buurten te vermijden. In plaats daarvan heeft het "geleerd" om dit te doen via het gebruik van de ML/DL.

Het punt is dat het delen van menselijke chauffeurs erom bekend stond hetzelfde te doen, hoewel niet noodzakelijk uitsluitend vanwege de hoek om geld te verdienen. Er waren enkele van de autorijdende menselijke chauffeurs die een ongewenst vooroordeel hadden over het oppikken van ruiters in bepaalde delen van de stad. Dit was een enigszins bekend fenomeen en de stad had een monitoringaanpak ingevoerd om menselijke chauffeurs te betrappen die dit deden. Menselijke chauffeurs kunnen in de problemen komen door onsmakelijke selectiepraktijken uit te voeren.

Er werd aangenomen dat de AI nooit in datzelfde soort drijfzand zou vallen. Er was geen gespecialiseerde monitoring opgezet om bij te houden waar de op AI gebaseerde zelfrijdende auto's naartoe gingen. Pas nadat leden van de gemeenschap begonnen te klagen, realiseerden de stadsleiders zich wat er aan de hand was. Voor meer informatie over dit soort stadsbrede problemen die autonome voertuigen en zelfrijdende auto's gaan opleveren, zie mijn berichtgeving op: deze link hier en die een door Harvard geleid onderzoek beschrijft waarvan ik co-auteur was over dit onderwerp.

Dit voorbeeld van de roaming-aspecten van de op AI gebaseerde zelfrijdende auto's illustreert de eerdere indicatie dat er situaties kunnen zijn waarin mensen met ongewenste vooroordelen betrokken zijn, waarvoor controles worden ingesteld, en dat de AI die die menselijke bestuurders vervangt, slordig wordt gelaten. vrij. Helaas kan de AI dan stapsgewijs verstrikt raken in verwante vooroordelen en dit doen zonder voldoende vangrails.

Een tweede voorbeeld is dat de AI bepaalt of er moet worden gestopt voor wachtende voetgangers die geen voorrang hebben om een ​​straat over te steken.

U hebt ongetwijfeld gereden en voetgangers tegengekomen die stonden te wachten om de straat over te steken en toch geen voorrang hadden. Dit betekende dat u de vrijheid had om te stoppen en ze te laten oversteken. Je zou kunnen doorgaan zonder ze te laten oversteken en toch volledig binnen de wettelijke rijregels te blijven.

Studies naar hoe menselijke bestuurders beslissen om al dan niet te stoppen voor dergelijke voetgangers hebben gesuggereerd dat menselijke bestuurders de keuze soms maken op basis van ongewenste vooroordelen. Een menselijke bestuurder kan de voetganger in de gaten houden en ervoor kiezen om niet te stoppen, ook al zou hij zijn gestopt als de voetganger er anders uit had gezien, bijvoorbeeld op basis van ras of geslacht. Ik heb dit onderzocht bij de link hier.

Stel je voor dat de op AI gebaseerde zelfrijdende auto's zijn geprogrammeerd om te gaan met de vraag of ze moeten stoppen of niet voor voetgangers die geen voorrang hebben. Hier is hoe de AI-ontwikkelaars besloten om deze taak te programmeren. Ze verzamelden gegevens van de videocamera's van de stad die overal in de stad zijn geplaatst. De gegevens tonen menselijke bestuurders die stoppen voor voetgangers die geen voorrang hebben en menselijke bestuurders die niet stoppen. Het wordt allemaal verzameld in een grote dataset.

Door gebruik te maken van Machine Learning en Deep Learning worden de gegevens computationeel gemodelleerd. Het AI-aandrijfsysteem gebruikt dit model vervolgens om te beslissen wanneer te stoppen of niet. Over het algemeen is het idee dat waar de lokale gewoonte ook uit bestaat, de AI de zelfrijdende auto zo aanstuurt.

Tot verbazing van de stadsleiders en de bewoners koos de AI blijkbaar om te stoppen of niet te stoppen op basis van het uiterlijk van de voetganger, inclusief hun ras en geslacht. De sensoren van de zelfrijdende auto zouden de wachtende voetganger scannen, deze gegevens in het ML/DL-model invoeren en het model zou aan de AI doorgeven of het moest stoppen of doorgaan. Helaas had de stad in dit opzicht al veel vooroordelen over menselijke chauffeurs en de AI bootste nu hetzelfde na.

Het goede nieuws is dat dit een probleem oproept waarvan bijna niemand eerder wist dat het bestond. Het slechte nieuws was dat sinds de AI werd betrapt, deze de meeste schuld kreeg. Dit voorbeeld illustreert dat een AI-systeem alleen maar de reeds bestaande ongewenste vooroordelen van mensen zou kunnen dupliceren.

Conclusie

Er is een groot aantal manieren om te proberen te voorkomen dat AI wordt bedacht die ofwel ongunstige vooroordelen heeft of die in de loop van de tijd vooroordelen opspoort. Eén benadering is ervoor te zorgen dat AI-ontwikkelaars op de hoogte zijn van dit gebeuren en ze daarom scherp houden om de AI te programmeren om de zaak te voorkomen. Een andere manier is om de AI zichzelf te laten controleren op onethisch gedrag (zie mijn discussie op .) de link hier) en/of een ander stuk AI hebben dat andere AI-systemen controleert op mogelijk onethisch gedrag (ik heb dit besproken op de link hier).

Om het samen te vatten, moeten we ons realiseren dat mensen ongewenste vooroordelen kunnen hebben en dat ze op de een of andere manier hun beperkingen moeten kennen. Evenzo kan AI ongewenste vooroordelen hebben, en op de een of andere manier moeten we hun beperkingen kennen.

Voor degenen onder jullie die AI Ethics gretig omarmen, wil ik nu eindigen met een andere beroemde regel die iedereen al moet kennen. Blijf met name het belang van ethische AI ​​gebruiken en delen. En door dit te doen, zou ik brutaal dit zeggen: "Ga je gang, maak mijn dag goed."

Bron: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/