AI-ethiek doet alarmbellen rinkelen over het dreigende spook van AI-biases op enorme wereldwijde schaal, vooral gevoed via dreigende volledig autonome systemen

Plato heeft de beroemde uitspraak gedaan dat een goede beslissing gebaseerd is op kennis en niet op cijfers.

Dit scherpe inzicht lijkt verbazingwekkend vooruitziend over de hedendaagse kunstmatige intelligentie (AI).

Zie je, ondanks de schetterende krantenkoppen die momenteel verkondigen dat AI op de een of andere manier het bewustzijn heeft bereikt en menselijke kennis en redenering belichaamt, moet je er rekening mee houden dat deze overdreven AI-hyperbool een verraderlijke prevariatie is, aangezien we nog steeds vertrouwen op het kraken van cijfers in de huidige besluitvorming over algoritmen (ADM ) zoals uitgevoerd door AI-systemen. Zelfs de geroemde Machine Learning (ML) en Deep Learning (DL) bestaan ​​uit computationele patroonovereenkomst, wat betekent dat cijfers nog steeds de kern vormen van het verheven gebruik van ML/DL.

We weten niet of AI het bewustzijn kan bereiken. Zou kunnen, misschien niet. Niemand kan met zekerheid zeggen hoe dit kan ontstaan. Sommigen geloven dat we onze computationele AI-inspanningen stapsgewijs zullen verbeteren, zodat een vorm van bewustzijn spontaan zal optreden. Anderen denken dat de AI in een soort computationele supernova terecht zou kunnen komen en zo'n beetje uit zichzelf het bewustzijn zou bereiken (meestal de singulariteit genoemd). Voor meer informatie over deze theorieën over de toekomst van AI, zie mijn verslag op: de link hier.

Laten we onszelf dus niet voor de gek houden en ten onrechte geloven dat hedendaagse AI in staat is om als mensen te denken. Ik veronderstel dat dan de vraag op de voorgrond komt over Plato's opmerking of we goede beslissingen kunnen nemen op basis van computationele AI in plaats van op bewuste AI. Het zal je misschien verbazen dat ik zou beweren dat we inderdaad goede beslissingen kunnen laten nemen door alledaagse AI-systemen.

De keerzijde van die medaille is dat we ook alledaagse AI-systemen kunnen hebben die slechte beslissingen nemen. Rotte beslissingen. Beslissingen die bol staan ​​van ongewenste vooroordelen en ongelijkheden. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Mijn uitgebreide dekking van AI Ethics en Ethical AI is te vinden op: deze link hier en deze link hier, om er een paar te noemen.

Voor deze discussie wil ik een bijzonder verontrustend aspect over AI naar voren brengen waar degenen in de AI-ethiekarena terecht klagen en proberen het juiste bewustzijn over te vergroten. De ontnuchterende en verontrustende kwestie is eigenlijk vrij eenvoudig aan te geven.

Hier is: AI heeft het echte potentieel om AI-doordrenkte vooroordelen op een alarmerende wereldwijde schaal te verspreiden.

En als ik zeg "op schaal", betekent dit aantoonbaar wereldwijde massale schaal. Gigantische schaal. Weegschaal die van de weegschaal gaat.

Voordat ik inga op hoe deze opschaling van AI-doordrenkte vooroordelen zal plaatsvinden, laten we ervoor zorgen dat we allemaal een schijn hebben van hoe AI onnodige vooroordelen en ongelijkheden kan opnemen. Bedenk nogmaals dat dit geen bewuste variant is. Dit is allemaal van een computationeel kaliber.

Je zou verbijsterd kunnen zijn over hoe AI dezelfde soorten nadelige vooroordelen en ongelijkheid kan doordringen als mensen. We hebben de neiging om AI te beschouwen als volledig neutraal, onbevooroordeeld, gewoon een machine die niet de emotionele invloed en vuile gedachten heeft die mensen zouden kunnen hebben. Een van de meest voorkomende manieren waarop AI in de vooroordelen en ongelijkheid valt, vindt plaats bij het gebruik van Machine Learning en Deep Learning, gedeeltelijk als gevolg van het vertrouwen op verzamelde gegevens over hoe mensen beslissingen nemen.

Sta me toe om het even toe te lichten.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. De computerpatroonmatching van Machine Learning of Deep Learning zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming of ADM van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit brengt ons bij de kwestie van AI-doordrenkte vooroordelen op schaal.

Laten we eerst eens kijken hoe menselijke vooroordelen tot ongelijkheid kunnen leiden. Een bedrijf dat hypotheken verstrekt, besluit een hypotheekadviseur in te schakelen. De makelaar moet verzoeken van consumenten beoordelen die een woonkrediet willen krijgen. Na beoordeling van een aanvraag neemt de agent een beslissing om de lening toe te kennen of te weigeren. Makkelijk.

Laten we ons ter wille van de discussie voorstellen dat een menselijke leningagent 8 leningen per dag kan analyseren, wat ongeveer een uur per beoordeling kost. In een vijfdaagse werkweek doet de makelaar ongeveer 40 leningbeoordelingen. Op jaarbasis doet de makelaar doorgaans ongeveer 2,000 leningbeoordelingen, een beetje geven of nemen.

Het bedrijf wil het aantal kredietbeoordelingen vergroten, dus neemt het bedrijf 100 extra leningagenten aan. Laten we aannemen dat ze allemaal ongeveer dezelfde productiviteit hebben en dat dit impliceert dat we nu ongeveer 200,000 leningen per jaar aankunnen (met een snelheid van 2,000 leningherzieningen per jaar per agent). Het lijkt erop dat we onze verwerking van leningaanvragen echt hebben opgevoerd.

Blijkt dat het bedrijf een AI-systeem bedenkt dat in wezen dezelfde leningbeoordelingen kan doen als de menselijke agenten. De AI draait op computerservers in de cloud. Via de cloudinfrastructuur kan het bedrijf gemakkelijk meer rekenkracht toevoegen om tegemoet te komen aan elk gewenst aantal leningbeoordelingen.

Met de bestaande AI-configuratie kunnen ze 1,000 leningbeoordelingen per uur doen. Dit kan ook 24×7 gebeuren. Er is geen vakantietijd nodig voor de AI. Geen lunchpauzes. De AI werkt de klok rond zonder te klagen dat hij overwerkt is. We zullen zeggen dat de AI in dat geschatte tempo bijna 9 miljoen leningaanvragen per jaar kan verwerken.

Merk op dat we van 100 menselijke agenten gingen die 200,000 leningen per jaar konden doen en vele malen overgingen naar het veel hogere aantal van 9 miljoen beoordelingen per jaar via het AI-systeem. We hebben de verwerking van onze leningaanvragen drastisch opgeschaald. Geen twijfel daarover.

Maak je klaar voor de kicker die je misschien van je stoel laat vallen.

Neem aan dat sommige van onze menselijke agenten hun leningbeslissingen nemen op basis van ongewenste vooroordelen. Misschien geven sommigen raciale factoren een sleutelrol bij de beslissing over de lening. Misschien gebruiken sommigen het geslacht. Anderen gebruiken leeftijd. Enzovoort.

Van de 200,000 jaarlijkse kredietbeoordelingen, hoeveel worden er gedaan onder de onterechte blik van ongunstige vooroordelen en ongelijkheden? Misschien 10%, wat ongeveer 20,000 van de leningaanvragen is. Erger nog, stel dat het 50% van de leningaanvragen is, in welk geval er jaarlijks 100,000 verontrustende gevallen zijn van verkeerde beslissingen over leningen.

Dat is slecht. Maar we moeten nog een nog angstaanjagender mogelijkheid overwegen.

Stel dat de AI een verborgen vooroordeel heeft dat bestaat uit factoren als ras, geslacht, leeftijd en dergelijke. Als 10% van de jaarlijkse leenanalyses onderhevig is aan deze onvrede, hebben we 900,000 leenaanvragen die niet goed worden afgehandeld. Dat is veel meer dan wat de menselijke agenten zouden kunnen doen, voornamelijk vanwege de volumeaspecten. Die 100 agenten, als ze allemaal een onbillijke beoordeling zouden doen, zouden dit hoogstens kunnen doen op de 200,000 jaarlijkse leningbeoordelingen. De AI zou hetzelfde kunnen doen op een veel grote schaal van de 9,000,000 jaarlijkse beoordelingen.

Yikes!

Dit is echt AI-doordrenkte vooringenomenheid op een enorme schaal.

Wanneer ongewenste vooroordelen worden ingebed in een AI-systeem, wordt dezelfde schaal die voordelig leek nu op zijn kop gezet en wordt een monsterlijk verleidelijke (en verontrustende) schaaluitkomst. Aan de ene kant kan de AI gunstig uitpakken om meer mensen te behandelen die een woningkrediet aanvragen. Op het eerste gezicht lijkt dat een enorme AI voorgoed. We zouden onszelf een schouderklopje moeten geven omdat we vermoedelijk de kans vergroten dat mensen de benodigde leningen krijgen. Ondertussen, als de AI vooroordelen heeft ingebed, zal de schaalvergroting een enorm verrot resultaat zijn en merken we dat we jammer genoeg vastzitten in AI voor slecht, op een werkelijk enorme schaal.

Het spreekwoordelijke tweesnijdend zwaard.

AI kan de toegang tot besluitvorming radicaal vergroten voor diegenen die op zoek zijn naar de gewenste diensten en producten. Geen door mensen beperkte arbeidsknelpunt meer. Uitstekend! De andere kant van het zwaard is dat als de AI slechtheid bevat, zoals verborgen ongelijkheden, dezelfde enorme schaal dat ongewenste gedrag op een onvoorstelbare schaal zal verspreiden. Vervelend, onrechtmatig, beschamend, en we kunnen niet toestaan ​​dat de samenleving in zo'n lelijke afgrond valt.

Iedereen die zich afvroeg waarom we het belang van AI-ethiek moeten onderstrepen, zou zich nu moeten realiseren dat het AI-schaalfenomeen een verdomd belangrijke reden is om ethische AI ​​na te streven. Laten we even stilstaan ​​bij enkele van de belangrijkste ethische AI-regels om te illustreren wat een essentiële focus zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, inclusief transparante en controleerbare methoden, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om over het algemeen wat te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is als de AI-codering het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Houd er rekening mee dat er een dorp voor nodig is om AI te bedenken en uit te voeren. Waarvoor het hele dorp scherp moet zijn op AI Ethics.

Hoe AI-doordrenkte biases schalen werkt

Nu ik heb begrepen dat AI vooroordelen kan bevatten, zijn we klaar om enkele van de redenen te onderzoeken waarom AI-schaling zo opdringerig is.

Overweeg deze keystone-lijst van tien onderliggende redenen:

  1. Gemakkelijk gerepliceerd
  2. Minimale kosten om te schalen
  3. Afschuwelijk consistent
  4. Gebrek aan zelfreflectie
  5. Blinde gehoorzaamheid
  6. Tipt zijn hand niet
  7. Ontvanger nietsvermoedend
  8. Heeft de neiging niet tot provocatie te leiden
  9. Valse uitstraling van eerlijkheid
  10. Moeilijk te weerleggen

Ik zal elk van die cruciale punten kort onderzoeken.

Als je probeert op te schalen met menselijke arbeid, is de kans groot dat dit enorm ingewikkeld zal zijn. Je moet de mensen vinden en aannemen. Je moet ze trainen om het werk te doen. Je moet ze betalen en rekening houden met menselijke wensen en behoeften. Vergelijk dit met een AI-systeem. Je ontwikkelt het en brengt het in gebruik. Afgezien van een beetje doorlopend onderhoud van de AI, kun je achterover leunen en het eindeloos laten verwerken.

Dit betekent dat AI gemakkelijk kan worden gerepliceerd. U kunt meer rekenkracht toevoegen als de taak en het volume dit vereisen (u neemt geen mensen aan of ontslaat u niet). Wereldwijd gebruik gebeurt met een druk op de knop en wordt bereikt door de wereldwijde beschikbaarheid van internet. De opschaling is een minimale kost in vergelijking met hetzelfde doen met menselijke arbeid.

Menselijke arbeid is notoir inconsistent. Als je grote teams hebt, heb je een echte doos chocolaatjes waarvan je nooit weet wat je in handen hebt. Het AI-systeem zal waarschijnlijk zeer consistent zijn. Het herhaalt steeds dezelfde activiteiten, waarbij elke keer in wezen hetzelfde is als de vorige.

Normaal gesproken zouden we genieten van AI-consistentie. Als mensen vatbaar zijn voor vooroordelen, zullen we altijd een deel van onze menselijke arbeid hebben dat verdwaalt. Als de AI puur onbevooroordeeld zou zijn in zijn constructie- en rekeninspanningen, zou hij veel consistenter zijn. Het probleem is echter dat als de AI verborgen vooroordelen heeft, de consistentie nu pijnlijk weerzinwekkend is. De kans is groot dat het bevooroordeelde gedrag consequent zal worden uitgevoerd, keer op keer.

Mensen zouden hopelijk enig idee hebben van zelfreflectie en zichzelf misschien betrappen op het nemen van vooringenomen beslissingen. Ik zeg niet dat iedereen dat zou doen. Ik zeg ook niet dat degenen die zichzelf betrappen noodzakelijkerwijs hun fouten zullen rechtzetten. Hoe dan ook, sommige mensen zouden zichzelf soms corrigeren.

Het is onwaarschijnlijk dat de AI enige vorm van computationele zelfreflectie heeft. Dit betekent dat de AI gewoon blijft doen wat hij doet. Er zou schijnbaar geen kans zijn dat de AI detecteert dat het in strijd is met het eigen vermogen. Dat gezegd hebbende, heb ik enkele inspanningen beschreven om hiermee om te gaan, zoals het bouwen van AI Ethics-componenten binnen AI (zie de link hier) en het bedenken van AI die andere AI monitort om onethische AI-activiteiten te onderscheiden (zie de link hier).

Bij gebrek aan enige vorm van zelfreflectie, is de AI waarschijnlijk ook in wezen blinde gehoorzaamheid aan alles wat hem werd opgedragen. Mensen zijn misschien niet zo gehoorzaam. De kans is groot dat sommige mensen die een taak uitvoeren, zich afvragen of ze misschien naar ongelijkheidsgebied worden geleid. Ze zouden geneigd zijn onethische bevelen te verwerpen of misschien de klokkenluidersroute te volgen (zie mijn bericht op deze link hier). Verwacht niet dat alledaagse hedendaagse AI op de een of andere manier zijn programmering in twijfel trekt.

We wenden ons vervolgens tot degenen die AI gebruiken. Als u op zoek was naar een woninglening en met een mens sprak, zou u erop kunnen letten of de mens u een eerlijke kans geeft. Bij het gebruik van een AI-systeem lijken de meeste mensen minder achterdochtig. Ze gaan er vaak van uit dat de AI eerlijk is en raken dus niet zo snel in de war. De AI lijkt mensen in een 'het is maar een machine'-trance te sussen. Bovendien kan het moeilijk zijn om te proberen te protesteren tegen de AI. Daarentegen is protesteren over hoe je door een menselijke agent werd behandeld een stuk eenvoudiger en veel meer algemeen geaccepteerd en aangenomen als levensvatbaar mogelijk.

Alles bij elkaar genomen heeft AI die doordrenkt is van vooroordelen een oneervolle voorsprong op mensen die doordrenkt zijn van vooroordelen, namelijk in termen van het kunnen hebben van de AI die deze vooroordelen massaal op een gigantische schaal inzet, zonder zo gemakkelijk gepakt te worden of consumenten te hebben beseffen wat er verontrustend gebeurt.

Op dit moment van deze discussie durf ik te wedden dat u op zoek bent naar enkele aanvullende voorbeelden die het raadsel van AI-doordrenkte vooroordelen op grote schaal zouden kunnen demonstreren.

Ik ben blij dat je het vraagt.

Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over AI-doordrenkte vooroordelen op schaal, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarvan de AI de auto volledig alleen bestuurt en dat er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, waarvan we nog niet eens weten of dit mogelijk zal zijn en hoe lang het duurt om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI-biases op schaal

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te maken in zelfrijdende auto's en de ethische AI-mogelijkheden, wat de verkenning van AI-doordrenkte vooroordelen met zich meebrengt die op grote schaal worden afgekondigd.

Laten we een eenvoudig duidelijk voorbeeld gebruiken. Een op AI gebaseerde zelfrijdende auto is onderweg in de straten van uw buurt en lijkt veilig te rijden. In het begin had je speciale aandacht voor elke keer dat je een glimp van de zelfrijdende auto op kon vangen. Het autonome voertuig viel op door zijn rek met elektronische sensoren, waaronder videocamera's, radareenheden, LIDAR-apparaten en dergelijke. Na vele weken van de zelfrijdende auto die door je gemeente toert, merk je er nu amper iets van. Het is wat jou betreft niet meer dan een auto op de toch al drukke openbare weg.

Voor het geval je denkt dat het onmogelijk of ongeloofwaardig is om vertrouwd te raken met het zien van zelfrijdende auto's, heb ik vaak geschreven over hoe de locaties die binnen het bereik van zelfrijdende auto-experimenten vallen, geleidelijk gewend zijn geraakt aan het zien van de opgeknapte voertuigen, zie mijn analyse op deze link hier. Veel van de lokale bevolking veranderden uiteindelijk van mond-gapend rapt gapen naar nu een uitgestrekte geeuw van verveling uitstoten om getuige te zijn van die meanderende zelfrijdende auto's.

Waarschijnlijk de belangrijkste reden op dit moment dat ze de autonome voertuigen opmerken, is vanwege de irritatie- en ergernisfactor. De by-the-book AI-rijsystemen zorgen ervoor dat de auto's zich houden aan alle snelheidslimieten en verkeersregels. Voor hectische menselijke chauffeurs in hun traditionele door mensen bestuurde auto's, raak je soms geïrriteerd als je vastzit achter de strikt gezagsgetrouwe, op AI gebaseerde zelfrijdende auto's.

Dat is iets waar we misschien allemaal, terecht of onterecht, aan moeten wennen.

Terug naar ons verhaal.

Het blijkt dat er twee ongepaste zorgen beginnen te ontstaan ​​over de verder onschuldige en algemeen toegejuichte op AI gebaseerde zelfrijdende auto's, met name:

A. Waar de AI door de zelfrijdende auto's dwaalt om ritten op te halen, doemde op als een geuite bezorgdheid

B. Hoe de AI omgaat met wachtende voetgangers die geen voorrang hebben, kwam naar voren als een dringend probleem

Aanvankelijk zwierf de AI de zelfrijdende auto's door de hele stad. Iedereen die een ritje in de zelfrijdende auto wilde aanvragen, had in wezen een gelijke kans om er een aan te spreken. Geleidelijk aan begon de AI de zelfrijdende auto's voornamelijk in slechts één deel van de stad te laten rondzwerven. Deze sectie was een grotere geldmaker en het AI-systeem was geprogrammeerd om te proberen de inkomsten te maximaliseren als onderdeel van het gebruik in de gemeenschap.

Leden van de gemeenschap in de verarmde delen van de stad konden minder snel een ritje krijgen vanuit een zelfrijdende auto. Dit kwam omdat de zelfrijdende auto's verder weg waren en rondzwierven in het hogere inkomstengedeelte van de omgeving. Wanneer er een verzoek binnenkwam uit een verafgelegen deel van de stad, zou elk verzoek van een dichterbij gelegen locatie die waarschijnlijk in het 'gewaardeerde' deel van de stad was, een hogere prioriteit krijgen. Uiteindelijk was het bijna onmogelijk om een ​​zelfrijdende auto te krijgen op een andere plaats dan in het rijkere deel van de stad, en dat was ergerlijk voor degenen die in die nu uitgehongerde gebieden woonden.

Je zou kunnen stellen dat de AI min of meer op een vorm van proxy-discriminatie is beland (ook vaak indirecte discriminatie genoemd). De AI was niet geprogrammeerd om die armere buurten te vermijden. In plaats daarvan heeft het "geleerd" om dit te doen via het gebruik van de ML/DL.

Het punt is dat het delen van menselijke chauffeurs erom bekend stond hetzelfde te doen, hoewel niet noodzakelijk uitsluitend vanwege de hoek om geld te verdienen. Er waren enkele van de autorijdende menselijke chauffeurs die een ongewenst vooroordeel hadden over het oppikken van ruiters in bepaalde delen van de stad. Dit was een enigszins bekend fenomeen en de stad had een monitoringaanpak ingevoerd om menselijke chauffeurs te betrappen die dit deden. Menselijke chauffeurs kunnen in de problemen komen door onsmakelijke selectiepraktijken uit te voeren.

Er werd aangenomen dat de AI nooit in datzelfde soort drijfzand zou vallen. Er was geen gespecialiseerde monitoring opgezet om bij te houden waar de op AI gebaseerde zelfrijdende auto's naartoe gingen. Pas nadat leden van de gemeenschap begonnen te klagen, realiseerden de stadsleiders zich wat er aan de hand was. Voor meer informatie over dit soort stadsbrede problemen die autonome voertuigen en zelfrijdende auto's gaan opleveren, zie mijn berichtgeving op: deze link hier en die een door Harvard geleid onderzoek beschrijft waarvan ik co-auteur was over dit onderwerp.

Dit voorbeeld van de roaming-aspecten van de op AI gebaseerde zelfrijdende auto's illustreert de eerdere indicatie dat er situaties kunnen zijn waarin mensen met ongewenste vooroordelen betrokken zijn, waarvoor controles worden ingesteld, en dat de AI die die menselijke bestuurders vervangt, slordig wordt gelaten. vrij. Helaas kan de AI dan stapsgewijs verstrikt raken in verwante vooroordelen en dit doen zonder voldoende vangrails.

Dit toont ook de AI-doordrenkte vooroordelen op schaal.

In het geval van menselijke chauffeurs hebben we er hier of daar misschien een paar gehad die een of andere vorm van ongelijkheid uitoefenden. Voor het AI-aandrijfsysteem is het meestal zo'n uniforme AI voor een hele vloot zelfrijdende auto's. We zouden dus kunnen zijn begonnen met pakweg vijftig zelfrijdende auto's in de stad (allemaal met dezelfde AI-code), en geleidelijk verhoogd tot laten we zeggen 500 zelfrijdende auto's (allemaal met dezelfde AI-code). Aangezien al die vijfhonderd zelfrijdende auto's door dezelfde AI worden bestuurd, zijn ze dienovereenkomstig allemaal onderhevig aan dezelfde afgeleide vooroordelen en ongelijkheden die in de AI zijn ingebed.

Schalen doet ons wat dat betreft pijn.

Een tweede voorbeeld is dat de AI bepaalt of er moet worden gestopt voor wachtende voetgangers die geen voorrang hebben om een ​​straat over te steken.

U hebt ongetwijfeld gereden en voetgangers tegengekomen die stonden te wachten om de straat over te steken en toch geen voorrang hadden. Dit betekende dat u de vrijheid had om te stoppen en ze te laten oversteken. Je zou kunnen doorgaan zonder ze te laten oversteken en toch volledig binnen de wettelijke rijregels te blijven.

Studies naar hoe menselijke bestuurders beslissen om al dan niet te stoppen voor dergelijke voetgangers hebben gesuggereerd dat menselijke bestuurders de keuze soms maken op basis van ongewenste vooroordelen. Een menselijke bestuurder kan de voetganger in de gaten houden en ervoor kiezen om niet te stoppen, ook al zou hij zijn gestopt als de voetganger er anders uit had gezien, bijvoorbeeld op basis van ras of geslacht. Ik heb dit onderzocht bij de link hier.

Stel je voor dat de op AI gebaseerde zelfrijdende auto's zijn geprogrammeerd om te gaan met de vraag of ze moeten stoppen of niet voor voetgangers die geen voorrang hebben. Hier is hoe de AI-ontwikkelaars besloten om deze taak te programmeren. Ze verzamelden gegevens van de videocamera's van de stad die overal in de stad zijn geplaatst. De gegevens tonen menselijke bestuurders die stoppen voor voetgangers die geen voorrang hebben en menselijke bestuurders die niet stoppen. Het wordt allemaal verzameld in een grote dataset.

Door gebruik te maken van Machine Learning en Deep Learning worden de gegevens computationeel gemodelleerd. Het AI-aandrijfsysteem gebruikt dit model vervolgens om te beslissen wanneer te stoppen of niet. Over het algemeen is het idee dat waar de lokale gewoonte ook uit bestaat, de AI de zelfrijdende auto zo aanstuurt.

Tot verbazing van de stadsleiders en de bewoners koos de AI blijkbaar om te stoppen of niet te stoppen op basis van het uiterlijk van de voetganger, inclusief hun ras en geslacht. De sensoren van de zelfrijdende auto zouden de wachtende voetganger scannen, deze gegevens in het ML/DL-model invoeren en het model zou aan de AI doorgeven of het moest stoppen of doorgaan. Helaas had de stad in dit opzicht al veel vooroordelen over menselijke chauffeurs en de AI bootste nu hetzelfde na.

Dit voorbeeld illustreert dat een AI-systeem alleen maar de reeds bestaande ongewenste vooroordelen van mensen zou kunnen dupliceren. Bovendien doet het dat op schaal. Elke menselijke drijfveer is misschien wel eens geleerd om deze ongewenste vorm van selectie te doen of is er persoonlijk voor gekozen om dit te doen, maar de kans is groot dat het grootste deel van de menselijke drijfveren dit waarschijnlijk niet massaal doet.

In schril contrast hiermee zal het AI-aandrijfsysteem dat wordt gebruikt om zelfrijdende auto's te besturen, waarschijnlijk de afgeleide vooringenomenheid weerzinwekkend consequent en zeker uitvoeren.

Conclusie

Er is een groot aantal manieren om te proberen te voorkomen dat er AI wordt bedacht die ongewenste vooroordelen heeft of die in de loop van de tijd vooroordelen opspoort. Het idee is zoveel mogelijk de problemen op te vangen voordat je in een hogere versnelling gaat en opschalen voor schaalvergroting. Hopelijk komen vooroordelen niet de deur uit, om zo te zeggen.

Ga er echter vanuit dat er op de een of andere manier vooroordelen zullen ontstaan ​​in de AI. Als je eenmaal op grote schaal met AI bent ingezet, kun je niet zomaar een van die vaak geprezen techneuten 'vuur en vergeet'-concepten toepassen. Je moet ijverig op de hoogte blijven van wat de AI doet en proberen eventuele ongewenste vooroordelen te detecteren die moeten worden gecorrigeerd.

Zoals eerder opgemerkt, houdt een benadering in dat ervoor moet worden gezorgd dat AI-ontwikkelaars zich bewust zijn van AI-ethiek en hen dus aansporen om scherp te zijn om de AI te programmeren om deze zaken te voorkomen. Een andere mogelijkheid is om de AI zichzelf te laten controleren op onethisch gedrag en/of een ander stuk AI te hebben dat andere AI-systemen controleert op mogelijk onethisch gedrag. Ik heb in mijn geschriften talloze andere mogelijke oplossingen behandeld.

Voor nu een laatste gedachte. Nadat we deze discussie begonnen zijn met een citaat van Plato, is het misschien passend om de verhandeling af te sluiten met nog een andere slimme uiting van Plato.

Plato stelde dat het geen kwaad kan om iets goeds te herhalen.

Het gemak om met AI op grote schaal te werken, is zeker een levensvatbaar middel om zo'n optimistische ambitie te bereiken wanneer de AI van de AI voorgoed verscheidenheid. We houden ervan om iets goeds te herhalen. Wanneer AI de is AI voor slecht en vol met ongewenste vooroordelen en ongelijkheden, zouden we kunnen steunen op Plato's opmerkingen en zeggen dat het veel kwaad kan om iets slechts te herhalen.

Laten we goed luisteren naar Plato's wijze woorden en onze AI dienovereenkomstig ontwerpen.

Bron: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- wereldwijde-schaal-vooral-aangedreven-via-doemt-volledig-autonome-systemen/