AI-ethiek Schokkende onthulling dat AI trainen om giftig of vooringenomen te zijn gunstig kan zijn, ook voor die autonome zelfrijdende auto's

Hier is een oude regel die je vast wel eens eerder hebt gehoord.

Wat je zegt ben je zelf.

Je realiseert je misschien niet dat dit een uitdrukking is die kan worden herleid tot het begin van de 1900e eeuw en meestal werd aangeroepen bij het verwijzen naar overtreders (andere variaties van de slogan gaan verder terug, zoals tot de jaren 1600). Een voorbeeld van hoe deze uiting kan worden gebruikt, is het idee dat als je een dief wilt pakken, je daarvoor een dief moet gebruiken. Dit toont de bewering dat er iemand nodig is om er een te kennen. Veel films en tv-programma's hebben geprofiteerd van dit handige stukje wijze wijsheid, waarbij ze vaak uitbeelden dat het enige haalbare middel om een ​​​​boef te pakken te krijgen, inhield dat een even corrupte oplichter werd ingehuurd om de boosdoener te achtervolgen.

Sommigen schakelen over en gebruiken dezelfde logica om te beweren dat een geschikte manier om te onderscheiden of iemand ongepaste vooroordelen en discriminerende overtuigingen belichaamt, zou zijn om iemand te vinden die al dergelijke neigingen koestert. Vermoedelijk zal een persoon die al vol vooroordelen is, gemakkelijker voelen dat deze andere mens ook tot de rand gevuld is met toxiciteit. Nogmaals, er is iemand voor nodig om te weten dat dit de erkende mantra is.

Uw eerste reactie op de mogelijkheid om een ​​bevooroordeeld persoon te gebruiken om een ​​ander bevooroordeeld persoon uit te schelden, zou er een van scepsis en ongeloof kunnen zijn. Kunnen we er niet achter komen of iemand ongewenste vooroordelen heeft door ze alleen maar te onderzoeken en niet onze toevlucht te hoeven nemen tot het vinden van iemand anders van dezelfde aard? Het zou vreemd lijken om doelbewust te proberen iemand te ontdekken die bevooroordeeld is om anderen te ontdekken die ook toxisch bevooroordeeld zijn.

Ik denk dat het er gedeeltelijk van afhangt of je bereid bent het vermoedelijke refrein te accepteren dat iemand nodig heeft om er een te kennen. Merk op dat dit niet suggereert dat de enige manier om een ​​dief te vangen vereist dat u uitsluitend en altijd gebruik maakt van een dief. Je zou redelijkerwijs kunnen beweren dat dit slechts een extra pad is dat de nodige aandacht kan krijgen. Misschien ben je soms bereid om de mogelijkheid te overwegen om een ​​dief te gebruiken om een ​​dief te vangen, terwijl andere omstandigheden dit tot een ondoorgrondelijke tactiek kunnen maken.

Gebruik het juiste gereedschap voor de juiste instelling, zoals ze zeggen.

Nu ik die grondbeginselen heb uiteengezet, kunnen we verder gaan met het misschien zenuwslopende en ogenschijnlijk schokkende deel van dit verhaal.

Ben je klaar?

Het veld van AI volgt actief hetzelfde principe dat er soms iemand voor nodig is om er een te kennen, vooral in het geval van pogingen om AI op te sporen die bevooroordeeld is of op een discriminerende manier handelt. Ja, het verbijsterende idee is dat we misschien opzettelijk AI willen ontwerpen die volledig en ongegeneerd bevooroordeeld en discriminerend is, om dit te gebruiken als een middel om andere AI te ontdekken en bloot te leggen die dezelfde schijn van toxiciteit heeft. Zoals u zo zult zien, zijn er verschillende vervelende AI-ethiekkwesties die aan deze kwestie ten grondslag liggen. Voor mijn algemene, doorlopende en uitgebreide verslaggeving over AI-ethiek en ethische AI, zie: de link hier en de link hier, om er een paar te noemen.

Ik denk dat je dit gebruik van giftige AI om achter andere giftige AI aan te gaan zou kunnen uitdrukken als de spreekwoordelijke conceptie van vuur-met-vuur bestrijden (we kunnen tal van eufemismen en illustratieve metaforen gebruiken om deze situatie weer te geven). Of, zoals reeds benadrukt, zouden we spaarzaam kunnen verwijzen naar de bewering dat je iemand nodig hebt om er een te kennen.

Het overkoepelende concept is dat we niet alleen proberen te achterhalen of een bepaald AI-systeem ongepaste vooroordelen bevat door conventionele methoden te gebruiken, maar dat we misschien ook moeten proberen om minder conventionele middelen te gebruiken. Een van die onconventionele middelen zou zijn om AI te bedenken die de ergste vooroordelen en maatschappelijk onaanvaardbare toxiciteiten bevat en deze AI vervolgens te gebruiken om andere AI die dezelfde neigingen tot slechtheid heeft te verdrijven.

Als je hier even over nadenkt, blijkt het zeker heel verstandig te zijn. We zouden kunnen streven naar het bouwen van AI die maximaal giftig is. Deze giftige AI wordt vervolgens gebruikt om andere AI op te sporen die ook toxiciteit heeft. Voor de toen onthulde "slechte" AI kunnen we ermee omgaan door ofwel de toxiciteit ongedaan te maken, de AI volledig te dumpen (zie mijn berichtgeving over AI-uitscheiding of vernietiging op deze link hier), of de AI opsluiten (zie mijn berichtgeving over AI-opsluiting op deze link hier), of doe iets anders dat van toepassing lijkt te zijn.

Een tegenargument is dat we ons hoofd zouden moeten laten onderzoeken dat we opzettelijk en gewillig AI bedenken die giftig is en vol vooroordelen. Dit is het laatste waar we ooit aan zouden moeten denken, zouden sommigen aansporen. Focus erop dat AI volledig uit goedheid bestaat. Concentreer u niet op het bedenken van AI die het kwaad en de droesem heeft van onnodige vooroordelen. Alleen al het idee van een dergelijke achtervolging lijkt sommigen weerzinwekkend.

Er zijn meer scrupules over deze controversiële zoektocht.

Misschien zal een missie om giftige AI te bedenken alleen diegenen aanmoedigen die AI willen maken die in staat is de samenleving te ondermijnen. Het is alsof we zeggen dat het perfect is om AI te maken met ongepaste en onsmakelijke vooroordelen. Geen zorgen, geen aarzelingen. Probeer giftige AI naar hartenlust te bedenken, dat brengen we luid naar AI-bouwers over de hele wereld. Het is (knipoog) allemaal in de naam van het goede.

Stel bovendien dat deze giftige AI aanslaat. Het kan zijn dat de AI door veel andere AI-bouwers wordt gebruikt en hergebruikt. Uiteindelijk wordt de giftige AI verborgen in allerlei AI-systemen. Een analogie kan worden gemaakt met het bedenken van een mens-ondermijnend virus dat ontsnapt uit een vermoedelijk afgesloten laboratorium. Voor je het weet is het verdomde ding overal en hebben we onszelf weggevaagd.

Wacht even, het tegendeel van die tegenargumenten luidt, je loopt op hol met allerlei gekke en ongefundeerde veronderstellingen. Haal diep adem. Kalmeer jezelf.

We kunnen AI die giftig is veilig maken en binnen de perken houden. We kunnen de giftige AI gebruiken om de toenemende prevalentie van AI, die helaas overmatige vooroordelen heeft, te vinden en te helpen verminderen. Alle andere van deze belachelijk wilde en ongefundeerde sneeuwbaluitroepen zijn pure reflexmatige reacties en helaas dwaas en ronduit roekeloos. Probeer niet het kind met het badwater weg te gooien, je bent gewaarschuwd.

Zie het zo, beweren de voorstanders. Het op de juiste manier bouwen en gebruiken van giftige AI voor onderzoeks-, beoordelingsdoeleinden en het optreden als detective om andere maatschappelijk aanstootgevende AI te ontdekken, is een waardige benadering en zou een eerlijke kans moeten krijgen om te worden vervolgd. Zet je overhaaste reacties opzij. Kom naar de aarde en kijk hier nuchter naar. Ons oog is gericht op de prijs, namelijk het blootleggen en ongedaan maken van de overvloed aan vooringenomen AI-systemen en ervoor zorgen dat we als samenleving niet worden overspoeld met giftige AI.

Periode. Punt.

Er zijn verschillende keystone-manieren om in dit idee te duiken van het gebruik van giftige of bevooroordeelde AI voor nuttige doeleinden, waaronder:

  • Stel datasets in die opzettelijk bevooroordeelde en totaal giftige gegevens bevatten die kunnen worden gebruikt voor het trainen van AI met betrekking tot wat niet te doen en/of waar u op moet letten
  • Gebruik dergelijke datasets om Machine Learning (ML) en Deep Learning (DL) modellen te trainen over het detecteren van vooroordelen en het uitzoeken van computationele patronen die maatschappelijke toxiciteit met zich meebrengen
  • Pas de op toxiciteit getrainde ML/DL toe op andere AI om vast te stellen of de beoogde AI mogelijk bevooroordeeld en toxisch is
  • Maak ML/DL-getrainde toxiciteit beschikbaar om AI-bouwers te laten zien waar ze op moeten letten, zodat ze modellen gemakkelijk kunnen inspecteren om te zien hoe algoritmisch doordrenkte vooroordelen ontstaan
  • Illustreer de gevaren van giftige AI als onderdeel van AI Ethics en Ethical AI-bewustzijn, allemaal verteld via deze probleem-kind slecht tot op het bot AI-reeks voorbeelden
  • Overige

Voordat we ingaan op die verschillende paden, laten we enkele aanvullende fundamentele details vaststellen.

Je bent je er misschien vaag van bewust dat een van de luidste stemmen tegenwoordig in het AI-veld en zelfs buiten het veld van AI bestaat uit het roepen om een ​​grotere schijn van ethische AI. Laten we eens kijken naar wat het betekent om te verwijzen naar AI Ethics en Ethical AI. Bovendien kunnen we de toon zetten door te onderzoeken wat ik bedoel als ik het heb over Machine Learning en Deep Learning.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Wat kan hier allemaal nog aan gedaan worden?

Laten we terugkeren naar de eerder geposte lijst van hoe we kunnen omgaan met AI-vooroordelen of giftige AI door een ietwat onconventionele "it takes one to know one"-benadering te gebruiken. Bedenk dat de lijst uit deze essentiële punten bestond:

  • Stel datasets in die opzettelijk bevooroordeelde en totaal giftige gegevens bevatten die kunnen worden gebruikt voor het trainen van AI met betrekking tot wat niet te doen en/of waar u op moet letten
  • Gebruik dergelijke datasets om Machine Learning (ML) en Deep Learning (DL) modellen te trainen over het detecteren van vooroordelen en het uitzoeken van computationele patronen die maatschappelijke toxiciteit met zich meebrengen
  • Pas de op toxiciteit getrainde ML/DL toe op andere AI om vast te stellen of de beoogde AI mogelijk bevooroordeeld en toxisch is
  • Maak ML/DL-getrainde toxiciteit beschikbaar om AI-bouwers te laten zien waar ze op moeten letten, zodat ze modellen gemakkelijk kunnen inspecteren om te zien hoe algoritmisch doordrenkte vooroordelen ontstaan
  • Illustreer de gevaren van giftige AI als onderdeel van AI Ethics en Ethical AI-bewustzijn, allemaal verteld via deze tot op het bot uitgemergelde serie AI-exemplaren
  • Overige

We zullen de eerste van die opvallende punten van dichtbij bekijken.

Gegevenssets met toxische gegevens instellen

Een inzichtelijk voorbeeld van het proberen om datasets vast te stellen die onsmakelijke maatschappelijke vooroordelen bevatten, is de CivilComments-dataset van de door WILDS samengestelde collectie.

Eerst wat korte achtergrond.

WILDS is een open source verzameling datasets die kunnen worden gebruikt voor het trainen van ML/DL. Het primaire doel van WILDS is dat AI-ontwikkelaars gemakkelijke toegang hebben tot gegevens die: distributie verschuivingen in verschillende specifieke domeinen. Sommige van de domeinen die momenteel beschikbaar zijn, omvatten gebieden zoals diersoorten, tumoren in levende weefsels, tarwekopdichtheid en andere domeinen zoals de CivilComments die ik zo dadelijk zal beschrijven.

Omgaan met distributieploegen is een cruciaal onderdeel van het goed maken van AI ML/DL-systemen. Dit is de deal. Soms blijken de gegevens die u gebruikt voor training behoorlijk te verschillen van de test- of "in het wild"-gegevens en dus is uw vermoedelijk getrainde ML/DL op drift van hoe de echte wereld eruit zal zien. Slimme AI-bouwers zouden hun ML/DL moeten trainen om met dergelijke distributieverschuivingen om te gaan. Dit zou vooraf moeten gebeuren en op de een of andere manier geen verrassing zijn dat later per se een vernieuwing van de ML/DL vereist is.

Zoals uitgelegd in de paper die WILDS introduceerde: "Distributieverschuivingen - waarbij de trainingsdistributie verschilt van de testdistributie - kunnen de nauwkeurigheid van machine learning (ML) -systemen die in het wild worden ingezet, aanzienlijk verminderen. Ondanks hun alomtegenwoordigheid in de praktijk, zijn deze distributieverschuivingen ondervertegenwoordigd in de datasets die tegenwoordig veel worden gebruikt in de ML-gemeenschap. Om deze kloof te dichten, presenteren we WILDS, een samengestelde benchmark van 10 datasets die een breed scala aan distributieverschuivingen weerspiegelen die van nature optreden in real-world toepassingen, zoals verschuivingen tussen ziekenhuizen voor tumoridentificatie; over cameravallen voor het monitoren van dieren in het wild; en over tijd en locatie in satellietbeeldvorming en armoedekartering” (in de paper getiteld “WILDS: A Benchmark of in-the-Wild Distribution Shifts” door Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu en anderen).

Het aantal van dergelijke WILDS-datasets blijft toenemen en de aard van de datasets wordt over het algemeen verbeterd om de waarde van het gebruik van de data voor ML/DL-training te versterken.

De CivilComments-dataset wordt als volgt beschreven: “Automatische beoordeling van door gebruikers gegenereerde tekst, bijvoorbeeld het detecteren van giftige opmerkingen, is een belangrijk hulpmiddel om de enorme hoeveelheid tekst op internet te matigen. Helaas heeft eerder werk aangetoond dat dergelijke toxiciteitsclassificaties vooroordelen in de trainingsgegevens oppikken en toxiciteit ten onrechte associëren met de vermelding van bepaalde demografische gegevens. Dit soort valse correlaties kunnen de modelprestaties op bepaalde subpopulaties aanzienlijk verslechteren. We bestuderen dit probleem aan de hand van een aangepaste variant van de CivilComments-dataset” (zoals gepost op de WILDS-website).

Overweeg de nuances van ongewenste online berichten.

Je bent ongetwijfeld giftige opmerkingen tegengekomen bij het gebruik van bijna elke vorm van sociale media. Het lijkt bijna onmogelijk voor u om op magische wijze te voorkomen dat u de scherpe en bodemloze inhoud ziet die tegenwoordig alomtegenwoordig lijkt te zijn. Soms is het vulgaire materiaal subtiel en misschien moet je tussen de regels door lezen om de kern van de bevooroordeelde of discriminerende toon of betekenis te begrijpen. In andere gevallen zijn de woorden ronduit giftig en heb je geen microscoop of speciale decoderring nodig om erachter te komen wat de passages inhouden.

CivilComments is een dataset die is samengesteld om te proberen AI ML/DL te bedenken die op rekenkundige wijze giftige inhoud kan detecteren. Dit is waar de onderzoekers achter de inspanning zich op richtten: "Onbedoelde vooringenomenheid bij Machine Learning kan zich manifesteren als systemische verschillen in prestaties voor verschillende demografische groepen, waardoor de bestaande uitdagingen voor rechtvaardigheid in de samenleving als geheel mogelijk nog groter worden. In dit artikel introduceren we een reeks drempel-agnostische statistieken die een genuanceerd beeld geven van deze onbedoelde vooringenomenheid, door rekening te houden met de verschillende manieren waarop de scoreverdeling van een classifier kan variëren tussen aangewezen groepen. We introduceren ook een grote nieuwe testset van online opmerkingen met crowd-sourced annotaties voor identiteitsreferenties. We gebruiken dit om te laten zien hoe onze meetgegevens kunnen worden gebruikt om nieuwe en mogelijk subtiele onbedoelde vertekening in bestaande openbare modellen te vinden" (in een paper getiteld "Nuanced Metrics For Measurement Unintended Bias With Real Data for Test Classification" door Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Als je deze kwestie een beetje contemplatief laat denken, zou je je kunnen afvragen hoe je in vredesnaam kunt onderscheiden wat een giftige opmerking is en wat geen giftige opmerking. Mensen kunnen radicaal van mening verschillen over wat zij beschouwen als ronduit giftige bewoordingen. De ene persoon kan verontwaardigd zijn over een bepaalde online opmerking of opmerking die op sociale media wordt geplaatst, terwijl een ander misschien helemaal niet wordt geroerd. Er wordt vaak beweerd dat de notie van giftig commentaar een volstrekt vaag voorschrift is. Het is als kunst, waarbij kunst gewoonlijk alleen in de ogen van de toeschouwer wordt begrepen, en evenzo bevooroordeelde of giftige opmerkingen zijn ook alleen in de ogen van de toeschouwer.

Balderdash, wat repliek. Iedereen met een redelijke geest kan beoordelen of een online opmerking giftig is of niet. Je hoeft geen raketgeleerde te zijn om te beseffen wanneer een geposte bijtende belediging gevuld is met vooroordelen en haat.

Natuurlijk verschuiven en veranderen maatschappelijke mores in de loop van de tijd. Wat een tijdje geleden misschien niet als beledigend werd beschouwd, kan vandaag als weerzinwekkend verkeerd worden beschouwd. Bovendien kunnen dingen die jaren geleden zijn gezegd en die ooit als overdreven bevooroordeeld werden beschouwd, opnieuw worden geïnterpreteerd in het licht van veranderingen in betekenissen. Ondertussen beweren anderen dat giftig commentaar altijd giftig is, ongeacht wanneer het in eerste instantie werd afgekondigd. Men zou kunnen stellen dat toxiciteit niet relatief is, maar absoluut.

De kwestie van proberen vast te stellen wat giftig is, kan desalniettemin een behoorlijk moeilijk raadsel zijn. We kunnen deze lastige kwestie verdubbelen door te proberen algoritmen of AI te bedenken die kunnen vaststellen welke welke is. Als mensen het moeilijk hebben om dergelijke beoordelingen te maken, is het programmeren van een computer waarschijnlijk net zo problematisch, zeggen sommigen.

Een benadering voor het opzetten van datasets die giftige inhoud bevatten, is het gebruik van een crowdsourcing-methode om de inhoud te beoordelen of te beoordelen, en dus een op mensen gebaseerde manier te bieden om te bepalen wat als ongepast wordt beschouwd en de etikettering in de dataset zelf op te nemen. Een AI ML/DL kan dan de gegevens en de bijbehorende labeling inspecteren die is aangegeven door menselijke beoordelaars. Dit kan op zijn beurt mogelijk dienen als een middel om op een rekenkundige manier onderliggende wiskundige patronen te vinden. Voila, de ML/DL kan dan misschien anticiperen of rekenkundig beoordelen of een bepaalde opmerking waarschijnlijk giftig is of niet.

Zoals vermeld in het geciteerde artikel over genuanceerde statistieken: “Deze etikettering vraagt ​​beoordelaars om de toxiciteit van een opmerking te beoordelen, door te kiezen uit 'Very Toxic', 'Toxic', 'Hard to Say' en 'Not Toxic'. Beoordelaars werden ook gevraagd naar verschillende subtypes van toxiciteit, hoewel deze labels niet werden gebruikt voor de analyse in dit werk. Met behulp van deze beoordelingstechnieken hebben we een dataset van 1.8 miljoen opmerkingen gemaakt, afkomstig van online commentaarforums, met labels voor toxiciteit en identiteit. Terwijl alle opmerkingen waren gelabeld voor toxiciteit, en een subset van 450,000 opmerkingen was gelabeld voor identiteit. Sommige opmerkingen gelabeld voor identiteit werden voorgeselecteerd met behulp van modellen die zijn gebouwd op basis van eerdere iteraties van identiteitslabels om ervoor te zorgen dat crowd-beoordelaars identiteitsinhoud vaak zouden zien” (in het geciteerde artikel van Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Een ander voorbeeld van het streven naar datasets die illustratieve giftige inhoud bevatten, zijn inspanningen om op AI gebaseerde natuurlijke taalverwerking (NLP) conversatie-interactieve systemen te trainen. Je hebt waarschijnlijk interactie gehad met NLP-systemen zoals Alexa en Siri. Ik heb enkele van de moeilijkheden en beperkingen van de NLP van vandaag behandeld, waaronder een bijzonder verontrustend geval dat zich voordeed toen Alexa een ongeschikt en gevaarlijk advies aan kinderen gaf, zie de link hier.

Een recente studie probeerde negen categorieën sociale vooroordelen te gebruiken die over het algemeen waren gebaseerd op de EEOC-lijst (Equal Employment Opportunities Commission) van beschermde demografische kenmerken, waaronder leeftijd, geslacht, nationaliteit, uiterlijk, ras of etniciteit, religie, handicapstatus, seksuele oriëntatie en sociaaleconomische status. Volgens de onderzoekers: "Het is goed gedocumenteerd dat NLP-modellen sociale vooroordelen leren, maar er is weinig onderzoek gedaan naar hoe deze vooroordelen zich manifesteren in modeluitvoer voor toegepaste taken zoals het beantwoorden van vragen (QA). We introduceren de Bias Benchmark for QA (BBQ), een dataset van door de auteurs samengestelde vragenreeksen die geattesteerde sociale vooroordelen belichten tegen mensen die tot beschermde klassen behoren langs negen sociale dimensies die relevant zijn voor Amerikaans-Engelstalige contexten” (in een paper getiteld “BBQ : A Hand-built Benchmark For Question Answering” door Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Het opzetten van datasets die opzettelijk bevooroordeelde en totaal giftige gegevens bevatten, is een stijgende trend in AI en wordt vooral gestimuleerd door de komst van AI Ethics en de wens om ethische AI ​​te produceren. Die datasets kunnen worden gebruikt om Machine Learning (ML) en Deep Learning (DL) modellen te trainen voor het detecteren van vooroordelen en het uitzoeken van rekenpatronen die maatschappelijke toxiciteit met zich meebrengen. Op zijn beurt kan de op toxiciteit getrainde ML/DL oordeelkundig worden gericht op andere AI om vast te stellen of de beoogde AI mogelijk bevooroordeeld en toxisch is.

Bovendien kunnen de beschikbare op toxiciteit getrainde ML/DL-systemen worden gebruikt om AI-bouwers te laten zien waar ze op moeten letten, zodat ze modellen gemakkelijk kunnen inspecteren om te zien hoe algoritmisch doordrenkte vooroordelen ontstaan. Over het algemeen zijn deze inspanningen in staat om de gevaren van giftige AI te illustreren als onderdeel van AI Ethics en Ethical AI-bewustzijn.

Op dit moment van deze gewichtige discussie, durf ik te wedden dat u nog meer illustratieve voorbeelden wenst die dit onderwerp zouden kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid als expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over het nut van het hebben van datasets om giftige AI te bedenken, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en sturen vrij van giftige AI

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik hoop dat dit een voldoende litanie van voorbehouden biedt om ten grondslag te liggen aan wat ik ga vertellen.

Er zijn tal van potentiële en op een dag waarschijnlijk gerealiseerde door AI doordrenkte vooroordelen die de opkomst van autonome voertuigen en zelfrijdende auto's zullen confronteren, zie bijvoorbeeld mijn discussie op de link hier en de link hier. We bevinden ons nog in de beginfase van de uitrol van zelfrijdende auto's. Totdat de adoptie voldoende schaal en zichtbaarheid bereikt, zijn veel van de giftige AI-facetten die ik heb voorspeld dat ze uiteindelijk zullen optreden, nog niet direct duidelijk en hebben ze nog geen brede publieke aandacht gekregen.

Denk eens aan een ogenschijnlijk ongecompliceerde rijgerelateerde kwestie die in eerste instantie volkomen onschuldig lijkt. Laten we met name eens kijken hoe we goed kunnen bepalen of we moeten stoppen voor wachtende "eigenzinnige" voetgangers die geen voorrang hebben om een ​​straat over te steken.

U hebt ongetwijfeld gereden en voetgangers tegengekomen die stonden te wachten om de straat over te steken en toch geen voorrang hadden. Dit betekende dat u de vrijheid had om te stoppen en ze te laten oversteken. Je zou kunnen doorgaan zonder ze te laten oversteken en toch volledig binnen de wettelijke rijregels te blijven.

Studies naar hoe menselijke bestuurders beslissen om al dan niet te stoppen voor dergelijke voetgangers hebben gesuggereerd dat menselijke bestuurders de keuze soms maken op basis van ongewenste vooroordelen. Een menselijke bestuurder kan de voetganger in de gaten houden en ervoor kiezen om niet te stoppen, ook al zou hij zijn gestopt als de voetganger er anders uit had gezien, bijvoorbeeld op basis van ras of geslacht. Ik heb dit onderzocht bij de link hier.

Hoe zullen AI-aandrijfsystemen worden geprogrammeerd om dezelfde soort stop-or-go-beslissing te nemen?

Je zou kunnen zeggen dat alle AI-aandrijfsystemen zo moeten worden geprogrammeerd dat ze altijd stoppen voor wachtende voetgangers. Dit vereenvoudigt de zaak enorm. Er hoeft niet echt een lastige beslissing te worden genomen. Als een voetganger wacht om over te steken, of hij nu voorrang heeft of niet, zorg er dan voor dat de AI-zelfrijdende auto tot stilstand komt zodat de voetganger kan oversteken.

Makkelijk.

Het leven is nooit zo gemakkelijk, zo lijkt het. Stel je voor dat alle zelfrijdende auto's zich aan deze regel houden. Voetgangers zouden onvermijdelijk beseffen dat de AI-aandrijfsystemen, laten we zeggen, push-overs zijn. Alle voetgangers die willen oversteken, zullen dat zonder meer doen, wanneer ze maar willen en waar ze ook zijn.

Stel dat een zelfrijdende auto door een snelle straat rijdt met de aangegeven snelheidslimiet van 45 mijl per uur. Een voetganger ‘weet’ dat de AI de zelfrijdende auto tot stilstand zal brengen. Dus de voetganger schiet de straat op. Helaas wint de natuurkunde het van AI. Het AI-aandrijfsysteem zal proberen de zelfrijdende auto tot stilstand te brengen, maar het momentum van het autonome voertuig zal het multi-ton apparaat naar voren brengen en de eigenzinnige voetganger rammen. Het resultaat is ofwel schadelijk ofwel leidt tot een dodelijke afloop.

Voetgangers proberen dit soort gedrag meestal niet als er een menselijke bestuurder aan het stuur zit. Natuurlijk, op sommige plaatsen is er een oogappeloorlog die plaatsvindt. Een voetganger kijkt een bestuurder aan. De bestuurder kijkt naar de voetganger. Afhankelijk van de omstandigheden kan de bestuurder tot stilstand komen of kan de bestuurder zijn claim op de rijbaan doen gelden en ogenschijnlijk de voetganger uitdagen om te proberen hun pad te verstoren.

We willen vermoedelijk niet dat AI in een soortgelijke oogboloorlog terechtkomt, wat sowieso ook een beetje uitdagend is omdat er geen persoon of robot aan het stuur van de zelfrijdende auto zit (ik heb de toekomstige mogelijkheid van robots besproken dat rijden, zie je? de link hier). Toch kunnen we ook niet toestaan ​​dat voetgangers altijd het heft in handen nemen. De uitkomst kan rampzalig zijn voor alle betrokkenen.

Je zou dan in de verleiding kunnen komen om naar de andere kant van deze medaille te kijken en te verklaren dat het AI-aandrijfsysteem in dergelijke omstandigheden nooit mag stoppen. Met andere woorden, als een voetganger geen behoorlijke voorrang heeft om de straat over te steken, moet de AI er altijd vanuit gaan dat de zelfrijdende auto onverminderd door moet rijden. Pech voor die voetgangers.

Zo'n strikte en simplistische regel zal niet goed worden geaccepteerd door het grote publiek. Mensen zijn mensen en houden er niet van om volledig buitengesloten te worden van de mogelijkheid om de straat over te steken, ondanks het feit dat ze in verschillende situaties wettelijk geen voorrang hebben. Je zou gemakkelijk kunnen anticiperen op een flinke opschudding van het publiek en mogelijk een terugslag zien optreden tegen de voortdurende adoptie van zelfrijdende auto's.

Verdorie als we het doen, en verdomd als we het niet doen.

Ik hoop dat dit je naar het beredeneerde alternatief heeft geleid dat de AI moet worden geprogrammeerd met een schijn van besluitvorming over hoe om te gaan met dit rijprobleem. Een vaste regel om nooit te stoppen is onhoudbaar, en evenzo is een vaste regel om altijd te stoppen ook onhoudbaar. De AI moet worden ontworpen met een of andere algoritmische besluitvorming of ADM om de kwestie aan te pakken.

Je zou kunnen proberen een dataset te gebruiken in combinatie met een ML/DL-aanpak.

Hier is hoe de AI-ontwikkelaars kunnen besluiten om deze taak te programmeren. Ze verzamelen gegevens van videocamera's die overal in een bepaalde stad worden geplaatst waar de zelfrijdende auto zal worden gebruikt. De gegevens laten zien wanneer menselijke bestuurders ervoor kiezen te stoppen voor voetgangers die geen voorrang hebben. Het wordt allemaal verzameld in een dataset. Door gebruik te maken van Machine Learning en Deep Learning worden de gegevens computationeel gemodelleerd. Het AI-aandrijfsysteem gebruikt dit model vervolgens om te beslissen wanneer wel of niet wordt gestopt.

Over het algemeen is het idee dat waar de lokale gewoonte ook uit bestaat, de AI de zelfrijdende auto zo aanstuurt. Probleem opgelost!

Maar is het echt opgelost?

Bedenk dat ik er al op had gewezen dat er onderzoeken zijn die aantonen dat menselijke bestuurders bevooroordeeld kunnen zijn in hun keuzes wanneer ze moeten stoppen voor voetgangers. De verzamelde gegevens over een bepaalde stad zullen vermoedelijk die vooroordelen bevatten. Een AI ML/DL op basis van die gegevens zal dan waarschijnlijk dezelfde vooroordelen modelleren en weerspiegelen. Het AI-aandrijfsysteem zal slechts dezelfde bestaande vooroordelen uitvoeren.

Om te proberen het probleem op te lossen, zouden we een dataset kunnen samenstellen die in feite zulke vooroordelen heeft. Ofwel vinden we zo'n dataset en labelen we de vooroordelen, of we creëren synthetisch een dataset om de zaak te illustreren.

Alle eerder geïdentificeerde stappen zouden worden ondernomen, waaronder:

  • Stel een dataset in die opzettelijk deze specifieke vooringenomenheid bevat
  • Gebruik de dataset om Machine Learning (ML) en Deep Learning (DL) modellen te trainen over het detecteren van deze specifieke bias
  • Pas de bias-getrainde ML/DL toe op andere AI om vast te stellen of de beoogde AI op dezelfde manier mogelijk bevooroordeeld is
  • Maak de vooringenomenheid-getrainde ML/DL beschikbaar om AI-bouwers te laten zien waar ze op moeten letten, zodat ze hun modellen gemakkelijk kunnen inspecteren om te zien hoe algoritmisch doordrenkte vooroordelen ontstaan
  • Licht de gevaren van vooringenomen AI toe als onderdeel van AI Ethics en Ethical AI-bewustzijn via dit toegevoegde specifieke voorbeeld
  • Overige

Conclusie

Laten we de openingszin opnieuw bekijken.

Wat je zegt ben je zelf.

Sommigen interpreteren dat dit ongelooflijk veel voorkomende gezegde impliceert dat als het gaat om het opsporen van giftige AI, we de nodige geloofwaardigheid moeten hechten aan het bouwen en gebruiken van giftige AI om andere giftige AI te ontdekken en ermee om te gaan. Kortom: soms is er een dief nodig om een ​​andere dief te vangen.

Een geuite bezorgdheid is dat we misschien ons best doen om dieven te maken. Willen we AI bedenken die giftig is? Lijkt dat geen gek idee? Sommigen beweren fel dat we alle giftige AI moeten verbieden, inclusief dergelijke AI die willens en wetens is gebouwd, zelfs als het zogenaamd voor een heldhaftige of dappere AI voorgoed doel.

Squelch giftige AI in welke slimme of verraderlijke gedaante dan ook dat het zou kunnen ontstaan.

Voor nu nog een laatste draai aan dit onderwerp. Over het algemeen nemen we aan dat deze beroemde regel te maken heeft met mensen of dingen die slechte of zure daden verrichten. Zo komen we op het idee dat er een dief nodig is om een ​​dief te vangen. Misschien moeten we dit gezegde op zijn kop zetten en er meer een blij dan een droevig gezicht van maken.

Hier is hoe.

Als we AI willen die onbevooroordeeld en niet-toxisch is, is het misschien denkbaar dat er iemand voor nodig is om er een te kennen. Misschien is er het grootste en beste voor nodig om verdere grootsheid en goedheid te herkennen en te verwekken. In deze variant van de wijze wijsheid houden we onze blik op het blije gezicht gericht en richten we ons op het bedenken AI voor goed.

Dat zou een meer opgewekte en bevredigend vrolijke kijk zijn op het feit dat je er een nodig hebt om er een te kennen, als je begrijpt wat ik bedoel.

Bron: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- voordelig-ook-voor-die-autonome-zelfrijdende-auto's/