AI-ethiek zorgvuldig beoordelen of het aanbieden van AI-biases bij het jagen op premies om ethisch slechte volledig autonome systemen te vangen en te pakken, verstandig of zinloos is

Gezocht: AI bias-jagers.

Dat zou een moderne advertentie kunnen zijn die je op sociale mediakanalen zult zien verschijnen en verschijnen in verschillende online vacatures. Dit is een relatief nieuw concept of rol. Het brengt controverse met zich mee. Sommige fervente gelovigen beweren vurig dat het volkomen logisch is en al die tijd had moeten gebeuren, terwijl anderen nogal nerveus een serieus hoofd krabben en niet zo zeker weten of dit een goed idee is.

De essentie van de rol bestaat erin om alle verborgen vooroordelen of ingebedde discriminerende praktijken uit AI op te sporen. Te hulp komen de gretige en totaal vroegere AI jagers vooringenomen. Het zouden vermoedelijk computervaardige premiejagers zijn. Meer nog, hopelijk doordrenkt van de diepten van AI-mogelijkheden.

Heb een geweer, zal reizen en kan via AI-vaardige scherpe schietvaardigheid erin slagen om die onsmakelijke en onaangename AI-vooroordelen bloot te leggen.

Dit roept een hele reeks netelige vragen op over de gevoeligheid van het nastreven van een dergelijke tactiek als het gaat om het ontdekken van AI-vooroordelen. Zoals ik zo meteen zal bespreken, moet u weten dat de komst van AI ook de opkomst van AI-vooroordelen met zich mee heeft gebracht. Een stortvloed van AI-vooroordelen. Voor mijn voortdurende en uitgebreide verslaggeving over AI Ethics en Ethical AI, zie: de link hier en de link hier, om er een paar te noemen.

Hoe kunnen we ontdekken dat een bepaald AI-systeem vooroordelen heeft?

Je zou de AI-ontwikkelaars die de AI hebben bedacht om dit te doen toevertrouwen. Het punt is dat ze misschien zo vastzitten in vooroordelen dat ze zelf de vooroordelen binnen hun verzonnen AI niet kunnen herkennen. Het ziet er allemaal goed uit voor hen. Of ze zijn misschien zo enthousiast over de AI en hebben er een gevoel van trots op dat het moeilijk en een echte domper zou zijn om vervolgens kritisch te kijken om het te onderzoeken op vooroordelen. Veel andere van dergelijke redenen lijken te ondermijnen dat de AI-ontwikkelaars deze taak op zich nemen, waaronder een gebrek aan vaardigheden om de ingebedde vooroordelen te achterhalen, gebrek aan tijd in een project om dit te doen, enz.

Oké, dus ga je gang en huur externe consultants in om als het ware het vuile werk voor je te doen. Blijkt dat consultants uw AI graag onderzoeken op vooroordelen, en u daarvoor een aardige cent in rekening brengen (heel veel centen). Realiseer je dat je moet betalen om ze op snelheid te brengen met je AI-systeem. Je moet ze dan laten rondsnuffelen, wat een onnoemelijk aantal kostbare arbeidsuren kan kosten. Het inschakelen van consultants is een optie als je er het budget voor hebt.

In de potentiële "kloof" van hoe je die verraderlijke AI-vooroordelen kunt vinden, komen de heroïsche en onstuimige AI-vooroordelen premiejagers.

U betaalt ze meestal niet vooraf. Ze proberen de AI-vooroordelen in hun eigen tijd te vinden en moeten daarbij hun eigen rekeningen betalen. Alleen als ze met succes vooroordelen vinden, worden ze betaald. Ik veronderstel dat je gemakkelijk zou kunnen beweren dat, op een geschikte manier van denken, dat de conventionele definitie is van een premiejager. Krijg betaald als je slaagt. Krijg niet betaald als je niet succesvol bent. Periode, einde verhaal.

Bounty-programma's bestaan ​​al sinds de tijd van de Romeinen en dus kunnen we veronderstellen dat ze werken, omdat ze al die jaren met succes als een praktijk hebben doorstaan.

Hier is een fascinerend stukje historische trivia voor je. Naar verluidt verklaarde een gepost bericht tijdens het Romeinse rijk in de stad Pompeii dat premiejagers nodig waren om een ​​koperen pot te vinden die vermist werd uit een kleine winkel. De beloning voor het terugvinden van de koperen pot was een indrukwekkende prijs van vijfenzestig bronzen munten. Het spijt ons te moeten zeggen dat we niet weten of een premiejager de koperen pot heeft gevonden en de bronzen munten heeft opgeëist, maar we weten wel dat de premiejacht zeker is doorgegaan sinds die oude tijden.

In modernere tijden weet je misschien dat er in de jaren tachtig een aantal opmerkelijke premies werden aangeboden om computerbugs of fouten in kant-en-klare softwarepakketten te vinden en in de jaren negentig bood Netscape duidelijk een premie voor het vinden van bugs in hun webbrowser (een van de meest prominente bedrijven van die tijd worden om dit te doen). Google en Facebook hadden elk gekozen voor premiejacht op bugs vanaf respectievelijk 1980 en 1990. Een paar jaar later, in 2010, kwam zelfs het Amerikaanse ministerie van Defensie (DoD) in actie door een "Hack the Pentagon"-premie te doen (merk op dat de publiekelijk gerichte premie was voor bugs die werden gevonden op verschillende DoD-gerelateerde websites en niet in missiekritieke defensiesystemen).

Laten we dieper ingaan op het onderwerp bug bounty. Ik realiseer me dat ik in deze discussie voornamelijk probeer te praten over AI-vooroordelen bij premiejacht, maar er zijn enkele behoorlijk relevante parallellen met de bugbounty-arena.

Sommigen zijn aantoonbaar verbaasd dat een bedrijf een premie zou willen bieden om bugs (of, in dit geval, AI-vooroordelen) in hun systemen te vinden.

Op het eerste gezicht lijkt dit een soort "je vraagt ​​erom"-strategie. Als u de wereld laat weten dat u diegenen verwelkomt die mogelijk gaten in uw software proberen te vinden, lijkt het erop dat u inbrekers vertelt dat ze door moeten gaan en proberen in te breken in uw huis. Zelfs als je al denkt dat je een redelijk goed inbraakalarmsysteem hebt en dat niemand in je beveiligde huis zou moeten kunnen komen, stel je voor dat je inbrekers vraagt ​​en inderdaad smeekt om allemaal naar je woonplaats te komen en te kijken of ze kunnen erin barsten. Oh, de problemen die we voor onszelf weven.

Hetzelfde kan gezegd worden over het vragen naar premiejagers om vooroordelen in je AI te vinden.

Ten eerste houdt het misschien in dat je al gelooft of zelfs ronduit weet dat je AI vooroordelen heeft. Dat is een schokkend openhartige impliciete erkenning die maar weinigen bereid lijken te maken en die mogelijk averechts werken.

Ten tweede weet je niet zeker wat die premiejagers zouden kunnen doen. Ze kunnen ervoor kiezen om de hele wereld te vertellen dat ze vooroordelen in je AI hebben gevonden. Men veronderstelt dat dit het krijgen van de premie zou kunnen verspelen, hoewel sommigen van de aandacht zouden kunnen genieten of ernaar streven hun status te versterken voor het krijgen van adviesoptredens en andere inkomstengenererende mogelijkheden. Het zou misschien geheel altruïstisch kunnen zijn. Het kan een vorm van AI-activisme zijn. Ik kan doorgaan.

Ten derde kan er een stiekeme draai aan de hele affaire zijn. Een premiejager die beweert naar AI-vooroordelen te zoeken, kan duivels rondneuzen om manieren te vinden om je AI-systeem aan te vallen. Het geheel is een schertsvertoning om uiteindelijk een ernstige cyberaanval uit te voeren. Je zou kunnen hebben aangenomen dat ze probeerden te helpen, terwijl ze kwaad in hun hart hebben. Jammer, maar mogelijk.

Ten vierde kunnen we in deze kwestie nog geniepiger worden. Een premiejager vindt een aantal gênante en mogelijk rechtszaken aanzettende AI-vooroordelen. De premie is een bedrag in dollars dat we X zullen noemen. In plaats van de premie te claimen, doet de premiejager een soort vreemde ransomware-provocatie. Als je de premiejager een bedrag van tien keer X of misschien the skies the limit betaalt, zullen ze je vertellen over de AI-vooroordelen. Je hebt tot zondagavond middernacht om te antwoorden. Na dat tijdstip zullen de AI-vooroordelen voor iedereen zichtbaar worden. Yikes, een lafhartige hachelijke situatie om in te verkeren.

Ten vijfde, de nieuwste zijn die zogenaamde "hack-to-return" cybercriminelen die, nadat ze een hoop online deeg hebben gestolen, besluiten zich te bekeren en een deel van de onrechtmatig verkregen buit terug te geven die ze hebben bemachtigd. Het bedrijf dat zijn geld gedeeltelijk terugkrijgt, is dan bereid om het resterende gestolen bedrag te beschouwen als een premie die achteraf wordt beloond aan de dieven. Het lijkt erop dat iedereen "wint" doordat het grootste deel van het geld wordt teruggegeven en ondertussen de cybercriminelen niet legaal worden achtervolgd, plus ze krijgen de piratenpremie om op te starten. Is dit verstandig of is dit een verraderlijke voortzetting van onrechtmatige handelingen?

Ik realiseer me dat sommigen van jullie misschien zeggen dat niemand AI zou moeten vrijgeven die vooroordelen bevat. Dat lijkt dit hele dilemma op te lossen over het al dan niet gebruiken van AI-bias voor premiejagers. Breng jezelf niet in een premie-situatie. Zorg ervoor dat uw AI-ontwikkelaars het juiste doen en laat AI-vooroordelen niet toe in hun AI-systemen. Gebruik misschien consultants om een ​​dubbele controle uit te voeren. In wezen moet u doen wat u moet doen om te voorkomen dat u ooit aan die AI-vooringenomen premiejagers denkt of deze vraagt ​​om aan tafel te komen.

Ja, dat lijkt me heel verstandig. Het probleem is dat het ook een beetje dromerig is. De complexiteit van veel AI-systemen is zo groot dat het moeilijk zal zijn om ervoor te zorgen dat er geen greintje AI-vooroordelen naar voren komen. Bovendien zijn sommige AI-systemen met opzet ontworpen om gaandeweg aan te passen en te "leren". Dit betekent dat op een bepaald moment in de toekomst de AI die je hebt bedacht, en die, laten we doen alsof in eerste instantie puur schoon en zonder vooroordelen was, zou kunnen neigen naar het belichamen van vooroordelen (ik bedoel dat niet op een antropomorfe manier, zoals ik verder zal uitleggen terwijl we ga mee in dit onderwerp).

Degenen die de voorkeur geven aan premiejacht op softwarefouten, zijn geneigd te beweren dat het zinvol is om dergelijke premies aan te bieden. We kunnen hun grondgedachte in overweging nemen en kijken of deze ook van toepassing is op het domein van AI-vooroordelen.

Voorstanders van bug bounties benadrukken dat in plaats van te proberen te doen alsof er geen gaten in uw systeem zijn, waarom niet aanmoedigen dat gaten worden gevonden, op een "gecontroleerde" manier? Daarentegen, zonder zo'n premie-inspanning, zou je gewoon kunnen hopen en bidden dat bij toeval niemand een gat zal vinden, maar als je in plaats daarvan een premie aanbiedt en degenen die een gat vinden vertellen dat ze zullen worden beloond, biedt het een kans om vervolgens zelf het gat te dichten en vervolgens te voorkomen dat anderen het op een later tijdstip stiekem vinden.

Hetzelfde kan gezegd worden in het geval van AI-bias. Als u een voldoende premie aanbiedt, zullen de premiejagers hopelijk de ontdekking van AI-vooroordelen onder uw aandacht brengen. Je kunt dan relatief rustig en afgemeten omgaan met de AI-bias. Dit kan later een veel groter en ontmoedigender probleem voorkomen, namelijk dat iemand anders AI-vooroordelen in je AI vindt en erover schreeuwt naar de hoge hemel.

Over het algemeen zal een bedrijf dat premiejacht op bugs wil mogelijk maken, een Vulnerability Disclosure Policy (VDP) invoeren. De VDP geeft aan hoe de bugs kunnen worden gevonden en gerapporteerd aan het bedrijf, samen met hoe de beloning of premie aan de jager zal worden verstrekt. Gewoonlijk vereist de VDP dat de jager uiteindelijk een geheimhoudingsovereenkomst (NDA) ondertekent, zodat ze niet aan anderen onthullen wat ze hebben gevonden.

Het idee van het gebruik van een NDA met premiejagers heeft enige controverse. Hoewel het misschien logisch is voor het bedrijf dat de premie aanbiedt om de gevonden blootstellingen te verbergen, zou het ook het algemene bewustzijn over dergelijke bugs verstikken. Vermoedelijk, als er over softwarefouten mag worden gepraat, zou dit mogelijk de veiligheid van andere systemen bij andere bedrijven ten goede komen, waardoor hun risico's zouden worden versterkt. Sommige premiejagers zullen geen NDA ondertekenen, deels vanwege de publieke wens en deels omdat ze proberen hun eigen identiteit verborgen te houden. Houd er ook rekening mee dat het NDA-aspect meestal pas optreedt nadat de jager beweert dat ze een bug hebben gevonden, in plaats van dit van tevoren te eisen.

Sommige VDP's bepalen dat de NDA slechts voor een beperkte periode geldt, zodat het bedrijf eerst een oplossing voor het schijnbare gat kan vinden en daarna een bredere openbaarmaking ervan mogelijk maakt. Zodra het gat is gedicht, staat het bedrijf een versoepeling van de NDA toe, zodat de rest van de wereld van de bug op de hoogte kan zijn. De typische time-to-oplossing voor bugs die op premie worden gejaagd, is naar verluidt ongeveer 15-20 dagen wanneer een bedrijf het meteen wil aansluiten, terwijl het in andere gevallen kan oplopen tot 60-80 dagen. In termen van het betalen van de premiejager, de zogenaamde time-to-pay, nadat is geverifieerd dat het gat daadwerkelijk bestaat, zijn de premiebetalingen naar verluidt meestal binnen ongeveer 15-20 dagen voor de kleinere gevallen en rond 50-60 dagen dagen voor de grotere gevallen (dit zijn voortdurend veranderende industrie-indicaties en worden alleen ter illustratie genoemd).

Moeten premiejagers voor AI-vooroordelen ook gevraagd worden om deel te nemen aan een VDP en om te gaan met een NDA?

Op die vraag kun je ja en nee krijgen. Ja, sommige bedrijven zouden die weg moeten inslaan. Nee, u kiest er misschien niet per se voor om die route te gaan. Factoren zijn onder meer de omvang en de aard van de AI, het potentieel van eventuele blootstellingen aan AI-vooroordelen en een heleboel andere ethische, juridische en zakelijke overwegingen die daarbij komen kijken.

Ik zou eraan kunnen toevoegen dat het opzetten van een premiejacht op AI-vooroordelen van je AI een veel grotere opdracht is dan je op het eerste gezicht zou denken.

We beginnen met de formidabele mogelijkheid dat je overweldigd zult worden door AI-vooroordelen premiejagers.

Op dit moment zou je het moeilijk hebben om velen te vinden die zo'n visitekaartje zouden hebben. Er zijn er niet veel in de buurt. Wat dat betreft zijn het de dagen van het Wilde Westen. Maar als het idee van AI-vooroordelen bij premiejacht aanslaat, vooral wanneer de premies overvloedig en rijkelijk lonend zijn, kun je er zeker van zijn dat iedereen in het vooringenomen jachtzwembad zal duiken.

Wil je allerlei soorten tuig die AI-vooroordelen nastreven in je AI-systeem? Je zult een aantal afnemers krijgen die eigenlijk experts zijn in dit soort dingen. Je zult andere liefhebbers krijgen die amateurs zijn en misschien een puinhoop maken of een wolf huilen. Voor je het weet, komt iedereen die 'kunstmatige intelligentie' kan spellen in je goudmijn van een AI-systeem graven voor die kostbare AI-vooroordelen goudklompjes. De goudkoorts is aangebroken. Dat is misschien niet goed voor je.

Je moet de premiejager-inzendingen onderzoeken. Er zal veel "ruis" zijn in de gerapporteerde claims, in de zin dat veel van de beweerde AI-vooroordelen niet bestaan, hoewel de premiejager erop staat dat ze er enkele hebben gevonden. Stel je voor hoeveel werk je eigen AI-teams nodig hebben om de premieclaims te onderzoeken, de geldigheid van elk te onderzoeken en vervolgens mogelijk heen en weer te gaan met de premiejager om te bepalen of er goud is ontdekt of niet.

Sommigen zouden beweren dat dat nog een reden is om het hele ding zelf te doen. Je zou onvermijdelijk kunnen ontdekken dat de premie meer moeite kost dan het waard was.

Hier is nog een vraag om over na te denken. Hoe weten de premiejagers hoe een AI-bias eruitziet? In wezen, zonder enige schijn van waar te zoeken, zou elke glimmende steen kunnen worden geclaimd als een presentatie van een AI-vooroordeel in de waargenomen AI-goudmijn die wordt opgegraven.

Stel dat je in de dagen van het Oude Westen een beloning uitloofde voor de gevangenneming van Billy the Kid (een beroemde outlaw). Als je dat deed en geen foto bijvoegde van hoe Billy eruitzag, stel je dan het aantal premiejagers voor dat iemand naar het kantoor van de sheriff zou kunnen slepen waarvan ze hoopten of dachten dat het Billy the Kid was. Je zou kunnen worden overspoeld met valse Billy's. Dit is slecht, aangezien je waarschijnlijk naar elk ervan moet kijken, indringende vragen moet stellen en proberen vast te stellen of de persoon echt Billy was of niet.

Het punt is dat om de premie-inspanning voor AI-vooroordelen op te zetten, je er verstandig aan doet om te proberen duidelijk te maken waaruit jij denkt dat AI-vooroordelen bestaan. Dit vereist een soort Goldilocks-kalibratie. Je wilt niet zo beperkend zijn dat de premiejagers AI-vooroordelen over het hoofd zien, alleen omdat ze niet binnen je gestelde definitie passen, en je wilt ook niet dat ze "Eureka!" bij elke hap van een AI-vooroordeel dat ze misschien vinden.

Je hebt precies de juiste Goldilocks-balans nodig van waaruit AI-bias bestaat en geeft daar dus bij voorkeur expliciete aanwijzingen over.

Veel van deze AI-vooroordelen premiejacht zal worden gericht op AI-gebaseerde Machine Learning (ML) en Deep Learning (DL) systemen. Dit is logisch aangezien de komst van de alomtegenwoordigheid van ML/DL toeneemt, en het lijkt een aantal van de meest waarschijnlijke uitdagingen te hebben om onnodige AI-vooroordelen te omvatten.

Deze onderzoekers identificeren hoe opvallend een AI-vooringenomen premiejachtinspanning kan zijn, met name in de ML/DL-context: "In de loop van de tijd hebben de software- en beveiligingsgemeenschappen 'bugbounties' ontwikkeld in een poging om een ​​vergelijkbare dynamiek tussen systeemontwikkelaars en hun critici te veranderen (of hackers) naar meer interactieve en productieve doeleinden. De hoop is dat door bewust externe partijen uit te nodigen om software- of hardwarebugs in hun systemen te vinden, en vaak financiële prikkels te geven om dit te doen, een gezonder en sneller reagerend ecosysteem zal ontstaan. Het is normaal dat de ML-gemeenschap een vergelijkbare 'bias bounty'-benadering overweegt voor het tijdig ontdekken en repareren van modellen en systemen met vooringenomenheid of ander ongewenst gedrag. In plaats van bugs in software te vinden, worden externe partijen uitgenodigd om vooroordelen te vinden - bijvoorbeeld (demografische of andere) subgroepen van input waarop een getraind model ondermaats presteert - en worden daarvoor beloond" (in de paper "An Algorithmic Framework for Bias Bounties” door Ira Globus-Harris, Michael Kearns en Aaron Roth).

In de onderzoekspaper schetsen de auteurs een voorgestelde benadering van wat voor soort AI-vooroordelen kunnen worden gezocht door premiejagers. Er is ook een indicatie over hoe de premiejager-claims moeten worden beoordeeld die verband houden met de vermeende AI-vooroordelen die zo zijn ontdekt. Volgens mijn eerdere opmerkingen hierin, is de kans groot dat je misleidende claims zult ontvangen en de AI-vooroordelen van het koren van het kaf moet scheiden.

Voordat we ingaan op wat meer vlees en aardappelen over de wilde en wollige overwegingen die ten grondslag liggen aan AI-biasjacht, laten we enkele aanvullende grondbeginselen vaststellen over diepgaande integrale onderwerpen. We moeten even een frisse duik nemen in AI Ethics en vooral de komst van Machine Learning (ML) en Deep Learning (DL).

Je bent je er misschien vaag van bewust dat een van de luidste stemmen tegenwoordig in het AI-veld en zelfs buiten het veld van AI bestaat uit het roepen om een ​​grotere schijn van ethische AI. Laten we eens kijken naar wat het betekent om te verwijzen naar AI Ethics en Ethical AI. Bovendien zullen we onderzoeken wat ik bedoel als ik het heb over Machine Learning en Deep Learning.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Laten we nu terugkeren naar het onderwerp van AI-biasjacht.

Voor degenen onder u die een AI-bias-bounty-jacht overwegen, zijn hier mijn aanbevolen zeven belangrijke stappen om het beste verder te gaan:

1) Schatten. Beoordeel de geschiktheid van een premiejacht op AI-bias voor uw omstandigheden en volgens uw AI-systemen

2) Design. Ontwerp een geschikte AI-bias-bounty-jachtaanpak

3) Implementeren. Implementeer en publiceer uw AI-bias premiejacht-inspanningen

4) Veld. Stel de AI-vooroordelen in op premieclaims en verwerk dienovereenkomstig

5) Bepalen. Corrigeer of pas uw AI aan indien relevant voor deze ontdekte blootstellingen aan AI-bias

6) Adjust. Pas de AI-vooroordelen premiejacht naar behoefte aan

7) Stop ermee. Beëindig de premiejacht op AI-bias wanneer deze niet langer nodig is

Houd er in mijn reeks bovenstaande stappen rekening mee dat ik vermeld dat u vermoedelijk uw AI wilt repareren of aanpassen op basis van het vaststellen dat er inderdaad een beweerde AI-bias bestaat binnen uw AI-systeem. Dit is ruimschoots zinvol. Je zou vrijwel zeker alle gevonden AI-vooroordelen willen versterken. Denk aan de juridische (en ethische) gevolgen als u dit niet doet. Het is één ding om te beweren dat je niet wist dat er een AI-bias bestond en deze daarom heeft laten bestaan, terwijl het veel wankeler is om vast te leggen dat je op de hoogte bent gesteld van een AI-bias en er niets aan hebt gedaan.

De aard en mate van de AI-fix of -aanpassing zou natuurlijk afhangen van hoe belangrijk de AI-vooroordelen waren en hoe diep de problemen zijn ingebed. Als je geluk hebt, zullen misschien een bescheiden aantal wijzigingen aan de AI de zaken rechtzetten. Het andere potentieel is dat u de AI mogelijk volledig moet herschrijven. Voor het ML/DL-type AI kan het nodig zijn om terug te gaan naar de tekentafel en opnieuw te beginnen met een geheel nieuwe set gegevens en een opgeschoond ML/DL-model. Ik heb de komst van AI-disgorgement of AI-vernietiging besproken als een mogelijk rechtsmiddel tegen onsmakelijke AI, zie de link hier.

Een vraag om over na te denken, is of je wilt dat de premiejagers mogelijk meer doen dan alleen het bestaan ​​van AI-vooroordelen identificeren. U kunt bijvoorbeeld de premie zoeter maken door aan te geven dat voorgestelde oplossingen ook welkom zijn. Een AI-bias gevonden door een premiejager kan een aangegeven beloning of prijs worden betaald. Als de premiejager ook een levensvatbare kan bieden repareren aan de AI-bias kunnen ze dan een extra beloning krijgen.

Sommigen beweren dat dit een brug te ver is. Ze zeggen dat je de premiejagers van AI-bias uitsluitend gericht moet houden op het vinden van AI-bias. Je gaat een heleboel ongewenste nadelige gevolgen creëren door hen uit te nodigen om ook oplossingen voor te stellen. Houd de zaken eenvoudig. Het doel is om zoveel mogelijk extra ogen te krijgen op het ontdekken van AI-vooroordelen, zodat u kunt beslissen wat u vervolgens gaat doen. Maak het water niet modderig.

Een netelig aspect dat moet worden uitgezocht, is de omvang van de beloning of prijs voor de premiejagers die echt AI-vooroordelen ontdekken. U wilt dat de uitbetaling demonstratief is. Zonder een beloning die hoog genoeg is, zul je niet veel premiejagers krijgen of zullen ze niet bijzonder enthousiast zijn om de AI-vooroordelen in je AI-systemen op te sporen. Ze kunnen zich in plaats daarvan concentreren op andere AI-bias bounty-inspanningen.

Verder wil je, zoals gezegd, de drang van de premiejagers proberen te onderdrukken om hun AI-vooringenomen ontdekkingen om te zetten in andere vormen van goud. Als de beloning miezerig lijkt, kan het premiejagers irriteren om andere hogere uitbetalingen te zoeken. Ze zouden een ransomware-aanpak naar je toe kunnen nemen. Ze zouden kunnen verklaren dat ze een sappige AI-bias hebben waarvan een concurrent graag zou willen weten en die ze tegen uw bedrijf zouden kunnen gebruiken door te beweren dat de AI-bias in uw AI bestaat. Zo verkopen ze de ontdekte AI-bias aan de hoogste bieder. Enzovoort.

Men veronderstelt dat als je de beloning op een extreem hoog bereik instelt, je ook om mogelijke problemen vraagt. Dit zou allerlei gekke premiejagers kunnen aantrekken. Ze zouden op hun beurt sociale media kunnen overspoelen met vage beweringen dat ze een veelvoud aan AI-vooroordelen hebben gevonden, dit doend voor hun eigen zelfpromotie en zonder daadwerkelijk AI-vooroordelen te hebben doorboord. In zekere zin schijnt je verhoogde beloning onbedoeld een licht op je AI en prikkelt een hele reeks ongemanierde motten om dienovereenkomstig verderfelijk aangetrokken te worden door de gloeiende lichtstraal.

Een andere overweging betreft de toegankelijkheid van uw AI.

Om een ​​AI-premiejacht mogelijk te maken, moeten de premiejagers voldoende toegang krijgen tot uw AI. Ze zullen niet veel geluk hebben bij het vinden van AI-vooroordelen als ze volledig zijn buitengesloten. Maar u wilt uw cyberbeveiligingsbescherming niet opgeven, omdat dit uw AI-systeem volledig in gevaar kan brengen.

U kunt proberen de premiejagers verschillende wettelijk bindende verklaringen te laten ondertekenen en hen vervolgens de benodigde toegang te geven. Sommige premiejagers zullen dat soort benadering niet leuk vinden. Hun standpunt is dat ze alleen zullen doen wat een openbaar beschikbaar en open pad toestaat. Het zijn als het ware vrije buitenbeentjes en houden er niet van om als het ware opgezadeld te worden. Door ze hun handtekening te laten zetten op intimiderende juridische documenten, zullen veel van hen het zoeken naar AI-vooroordelen in uw AI vermijden. Of ze kunnen boos worden op uw juridische handschoen en besluiten dat ze zullen zien wat ze via openbare middelen kunnen vinden, met de misschien schrille drang om u te laten zien hoe kwetsbaar u werkelijk bent.

Ik heb nog een andere hoek die je hoofd zou kunnen doen tollen.

Een AI-savvy premiejager kan besluiten om een ​​AI-systeem te bedenken dat je AI kan onderzoeken en mogelijk AI-vooroordelen in je AI kan ontdekken. Dit is de toolmaker die ervoor kiest om een ​​tool te maken om het werk te doen in plaats van zelf handarbeid te verrichten. In plaats van je AI moeizaam te onderzoeken, besteedt de AI-bedreven premiejager zijn tijd aan het verzinnen van een AI-tool die hetzelfde doet. Vervolgens gebruiken ze de AI-tool op uw AI. Het mooie is ook dat ze de AI-tool vermoedelijk kunnen hergebruiken voor iemand anders die ook een premiejacht-mogelijkheid biedt op hun respectievelijke AI.

Ik weet wat je waarschijnlijk denkt. Als er een AI-tool kan worden ontworpen om AI op vooroordelen te onderzoeken, moet de maker van de AI die wordt onderzocht op AI-vooroordelen, ofwel een dergelijke AI-tool maken of er een kopen voor eigen gebruik. In theorie hoeven ze dan om te beginnen niet te kampen met het hele premiejagerscarnaval. Gebruik AI gewoon om hun AI-vooroordelen te vinden.

Ja, dit is iets waarvan je kunt verwachten dat het geleidelijk zal ontstaan. Ondertussen zal de steunpilaar van deze inspanningen waarschijnlijk bestaan ​​uit AI-ontwikkelaars die premiejagen. Ze kunnen verschillende tools gebruiken om hun inspanningen te ondersteunen, maar op de korte termijn is het onwaarschijnlijk dat ze de AI-tool gewoon gedachteloos op automatisch zetten en een dutje doen zodat de tool de volledige AI-biasjacht voor hen doet.

We zijn er nog niet.

Op dit moment van deze gewichtige discussie, durf ik te wedden dat u op zoek bent naar enkele illustratieve voorbeelden die dit onderwerp zouden kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over het gebruik van AI-bias voor premiejacht, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADA . worden genoemdADA
S (geavanceerde rijhulpsystemen).

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI Bias Bounty Hunting

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik hoop dat dit een voldoende litanie van voorbehouden biedt om ten grondslag te liggen aan wat ik ga vertellen.

In mijn columns heb ik al uitgebreid gesproken over het gebruik van bugs-georiënteerde premiejagers in het domein van autonome voertuigen en zelfrijdende auto's. Deze aanpak heeft inderdaad plaatsgevonden in deze niche. Er zijn de gebruikelijke discussies over of het een goed idee is of niet. De inspanningen waren meestal van beperkte aard en werden vaak relatief rustig gehouden.

Een soortgelijk discours kan ontstaan ​​wanneer de focus verschuift naar het jagen op AI-vooroordelen in plaats van het zoeken naar systeembugs op zich. Sommigen suggereren dat het verdraaid is als je dat doet, verdraaid als je niet in de war bent.

Dit is waarom.

Ten eerste, voor alle duidelijkheid, er zijn talloze manieren waarop autonome voertuigen en zelfrijdende auto's onderhevig zullen zijn aan het bevatten van AI-vooroordelen, zie mijn bericht op de link hier en de link hier, om er een paar te noemen. Autofabrikanten en zelfrijdende autofabrikanten lijken verstandig om te proberen te voorkomen dat die AI-vooroordelen in hun AI-systemen verschijnen. De juridische en ethische vuurstorm tegen dergelijke bedrijven zal ongetwijfeld hevig zijn.

Is het gebruik van een premiejacht op AI-bias een geschikte aanpak in deze specifieke context?

Eén antwoord is dat ja, dit zal handig zijn en een overvloed aan "gratis" sets nieuwe ogen bieden om te proberen eventuele ingebedde AI-vooroordelen van een AI-zelfrijdende auto of iets dergelijks te vangen. De meeste AI-ontwikkelaars die zelfrijdende auto's bouwen, zijn bezig met het maken van AI die een auto veilig van punt A naar punt B kan rijden. Ze zijn bezig met die kerncapaciteit en hebben geen tijd of aandacht voor AI-vooroordelen die ergens in hun AI.

Het andere antwoord is dat nee, het toestaan ​​van premiejachten op autonome voertuigen en zelfrijdende auto's op welke basis dan ook, of het nu gaat om bugs of AI-vooroordelen, gewoon fel moet worden vermeden. Het argument is dat deze voertuigen en hun AI van het kaliber op leven of dood zijn. Knoeien met de AI kan op de een of andere manier desastreus zijn voor de AI en van invloed zijn op wat het AI-aandrijfsysteem doet.

Een tegenargument voor dat laatste punt is dat de premiejagers verondersteld worden niet in staat te zijn de AI die ze onderzoeken te veranderen. Er is dus geen gevaar dat ze knoeien met de AI en ervoor zorgen dat de AI in deze context plotseling een gestoord AI-aandrijfsysteem wordt. De premiejagers hebben alleen alleen-lezen toegang. Hen verder laten gaan zou ronduit dom en een grote fout zijn.

Het tegenargument voor dat tegenargument is dat door premiejagers toe te staan ​​en aan te moedigen om je AI te onderzoeken, de hele zaak hachelijk wordt. Die premiejagers kunnen manieren bedenken om gevonden bugs of vooroordelen te misbruiken. Die exploits kunnen op hun beurt voor slinkse doeleinden zijn. U kunt beter geen 'inbrekers' bij u thuis uitnodigen. Als ze het gewricht eenmaal hebben omhuld, zul je uiteindelijk in de problemen komen.

Voor degenen die AI-systemen hebben van een minder dan leven-of-dood-omvang, is de overtuiging dat de gevolgen van een misgelopen premiejacht een stuk minder riskant zijn. Misschien wel. Aan de andere kant, als een bedrijf zijn geld heeft gestoken in een AI-systeem dat premiejagers zich kunnen toe-eigenen, kun je ervan uitgaan dat de reputatieschade en andere potentiële schade nog steeds pijn zullen doen.

Er is geen gratis lunch als het gaat om premiejagen op AI-bias.

Een korte afsluitende opmerking voor nu.

Toen de beruchte outlaw Jesse James werd gezocht tijdens het Oude Westen, werd er een 'Gezocht'-poster gedrukt die een premie van $ 5,000 bood voor zijn gevangenneming (met de vermelding 'dood of levend'). Het was destijds een vrij groot bedrag. Een van zijn eigen bendeleden koos ervoor om Jesse dood te schieten en de beloning te innen. Ik veronderstel dat dat laat zien hoe effectief een premie kan zijn.

Zal het gebruik van AI-bias premiejagers een goede zaak zijn, of zal het een slechte zaak zijn?

Als je ervoor kiest om een ​​premiejager-inspanning voor AI-bias in te stellen, raad ik je aan om je ogen wijd open te houden en te allen tijde over je schouder te kijken. Dit is verstandig voor u en uw AI. Je weet nooit wat er kan gebeuren, inclusief dat een sluwe premiejager op de een of andere manier heimelijk een AI-bias in je AI invoegt en de wereld toeschreeuwt dat ze een gewetenloze AI-bias in je AI hebben gevonden. Misschien doen ze dit in een brutale en buitensporige poging om de premie te zoeken, plus zichzelf uit te roepen tot een held die in wezen de geroemde Jesse James kreeg.

Nu ik erover nadenk, een bewuste AI zal dat idee van een verontrustende dood-of-levende voorziening waarschijnlijk niet leuk vinden, zo zou je smachtend kunnen speculeren.

Bron: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- ethisch-slechte-volledig-autonome-systemen-is-prudent-of-futile/