AI-ethiek woedend over het stijgende hete aardappelsyndroom dat wordt gebruikt door AI-makers die schijnbaar proberen de verantwoordelijkheid voor hun levensbepalende autonome systemen te vermijden

We weten allemaal dat je ervoor moet zorgen dat je niet bij de spreekwoordelijke hete aardappel terechtkomt.

Het hete aardappel-gambit lijkt zijn wortels te vinden in ten minste het einde van de 1800e eeuw, toen een gezelschapsspel met brandende kaarsen de bal aan het rollen bracht. Mensen zaten meestal in een reeks houten stoelen die relatief naast elkaar stonden en speelden in die tijd een heel opwindend spel. Een aangestoken kaars zou door de spelers van persoon tot persoon worden overhandigd en vertegenwoordigde wat we later kozen om te verwoorden als het overhandigen van een hete aardappel.

Het was gebruikelijk dat elke persoon een populair rijmpje hardop moest spreken voordat ze de geleidelijk brandende kaars konden doorgeven. Het rijm ging blijkbaar als volgt:

'Jack leeft en zal waarschijnlijk nog leven;

Als hij in jouw hand sterft, heb je een forfait om te geven."

Deze rijmende overweging zou de kaars vermoedelijk een heel klein beetje tijd geven om verder te branden naar zijn uiteindelijke conclusie. Degene die aan het einde vast kwam te zitten met de kaars in zijn bezit bij de natuurlijke blussing, was de persoon die de lucifer verloor (woordspeling!).

Volgens de woorden in het rijm moest de verliezer de "forfait" betalen en moest hij dus meestal alle volgende rondes van het spel verlaten. Dit zou dan kunnen worden gecombineerd met wat we tegenwoordig beschouwen als alledaagse stoelendans, zodat de persoon die de ronde heeft verloren niet langer zou deelnemen aan de volgende rondes (alsof de muziek stopt en ze geen beschikbare stoel kunnen bemachtigen). Uiteindelijk zouden er nog maar twee mensen over zijn die de brandende kaars passeerden en het rijm zeiden, totdat een uiteindelijke winnaar werd bepaald in de laatste blussing.

Je vraagt ​​je misschien af ​​waarom we dit spel niet langer spelen met een brandende kaars, en waarom we dit in plaats daarvan meestal een hete aardappel noemen in plaats van dit af te schilderen als een "verlichte kaars" -schema. Onderzoekers hebben veel theorieën bedacht over hoe dit geleidelijk is gebeurd. De geschiedenis lijkt troebel en onbeslist over hoe de zaken in deze kwestie zijn geëvolueerd. Ik veronderstel dat we opgelucht kunnen zijn dat brandende kaarsen niet vaak op deze manier worden gebruikt, omdat de kans dat er iets duidelijk mis gaat buitengewoon zorgwekkend lijkt (iemand laat de kaars vallen en start een vuur, of iemand wordt verbrand door de kaars wanneer hij wordt overhandigd van een andere speler, enz.).

In termen van de hete aardappel als mogelijke vervanging voor de brandende kaars, zou je over het algemeen kunnen zeggen dat de aardappel over het algemeen iets veiliger zal zijn. Geen open vlam. Geen smeltende was. De mogelijke basis voor het gebruik van aardappelen in deze context is dat bekend is dat ze goed warmte vasthouden nadat ze zijn opgewarmd. Je kunt de aardappel rondgeven en hij blijft een tijdje warm. Men veronderstelt dat beslissen wanneer de hete aardappel niet langer heet is en in plaats daarvan als koud wordt beoordeeld, een hevig omstreden voorstel zou zijn.

Natuurlijk is het idee van een spreekwoordelijke hete aardappel tegenwoordig meer een op zichzelf staande overweging. Alles dat wordt beoordeeld of gerangschikt als een hete aardappel, is meestal van een ernstige manier om van kwaliteit af te komen. Je wilt geen hete aardappel vast hebben. Je wilt zeker weten dat het ergens anders heen gaat. Tot op zekere hoogte maakt u zich misschien niet al te veel zorgen over waar het heen gaat, alleen dat het niet langer in uw bezit is.

Je zou nogal ongevoelig lijken om mogelijk een hete aardappel te overhandigen aan een goede vriend of vergelijkbare kennis. Dit zou volkomen uit de toon vallen. Misschien vind je iemand anders of ergens anders om die hete aardappel te zetten, als je dat kunt doen. Een wanhopige zet zou kunnen zijn om de hete aardappel op te dringen aan een minzame collega, maar hopelijk wordt dit alleen als laatste redmiddel gedaan.

De keerzijde van die medaille is dat je het heerlijk vindt om een ​​hete aardappel te geven aan iemand die je niet mag of op wie je wraak zoekt. Natuurlijk kan een hete aardappel bijna heerlijk handig zijn als je iemand wilt ondergraven die je slecht heeft behandeld. Laat ze uitzoeken wat ze met de hete aardappel moeten doen. Groeten aan de aardappel en veel succes aan de persoon met wie je hem hebt getagd.

In een hete aardappelscenario waarbij slechts twee mensen betrokken zijn, bestaat de mogelijkheid van een snel heen en weer geschil over welke persoon het onsmakelijke en ongewenste item vasthoudt. Ik overhandig bijvoorbeeld de hete aardappel aan jou, en jij geeft hem haastig terug aan mij. Ervan uitgaande dat we geen kinderliedje hoeven aan te kondigen tussen elke overdracht, kunnen we de aardappel zo snel als onze armen ons toelaten, doorgeven.

Je bent misschien benieuwd waarom ik ervoor heb gekozen om een ​​diepe duik te nemen in de vereerde en vaak geciteerde hete aardappel.

Dit is waarom.

Het blijkt dat de hete aardappel dekmantel steeds vaker wordt gebruikt op het gebied van kunstmatige intelligentie (AI).

De meeste mensen weten er niets van. Ze hebben er nog nooit van gehoord. Ze weten totaal niet wat het is. Zelfs veel AI-ontwikkelaars zijn zich hier niet van bewust. Desalniettemin bestaat het en lijkt het te worden gebruikt in echt twijfelachtige situaties, met name gevallen van leven of dood.

Ik noem dit de AI Hete Aardappel Syndroom.

Er zijn veel ernstige gevolgen die aan dit syndroom ten grondslag liggen en we moeten ervoor zorgen dat we onze AI Ethics-denkmutsen opzetten en overwegen wat er moet gebeuren. Er zijn ontnuchterende ethische overwegingen. Er zullen ongetwijfeld ook opmerkelijke juridische implicaties zijn (die nog niet maatschappelijk zichtbaar zijn geworden, hoewel ik voorspel dat ze dat binnenkort zullen doen). Voor mijn doorlopende en uitgebreide berichtgeving over AI-ethiek, ethische AI ​​en juridische AI-kwesties, zie: de link hier en de link hier, om er een paar te noemen.

Laten we de . uitpakken AI hete aardappel syndroom.

Stel je een AI-systeem voor dat samenwerkt met een mens. De AI en de mens passeren de controle over een activiteit die onderweg is, zodat de mens soms de controle heeft en andere keren de AI de controle heeft. Dit kan in eerste instantie op een, laten we zeggen, welgemanierde of redelijke manier. Om verschillende redenen, waar we zo dadelijk op in zullen gaan, kan de AI er rekenkundig vaststellen dat de besturing haastig moet worden overgedragen aan de mens.

Dit is de hete aardappel dat gaat om het leven in de echte wereld in gevaar te brengen in plaats van alleen als een leerzaam kinderspel te dienen.

Het probleem met een haastige overdracht van de controle van de AI naar de mens is dat dit op een redelijke manier kan worden gedaan of op een nogal onredelijke manier kan worden bereikt. Als de mens de overdracht niet bijzonder verwacht, is dit waarschijnlijk een probleem. Als de mens het over het algemeen goed vindt om de controle over te dragen, kunnen de omstandigheden die aan de overdracht ten grondslag liggen, ontmoedigend zijn wanneer de mens onvoldoende tijd krijgt of onvoldoende besef waarom de controle onder dwang in hun handen wordt gegeven.

We zullen voorbeelden onderzoeken van hoe dit levensgevaar kan opleveren voor de mens en mogelijk andere mensen in de buurt. Het is serieus spul. Punt, punt.

Voordat we ingaan op wat meer van de vlezige facetten van de wilde en wollige overwegingen die ten grondslag liggen aan de AI hete aardappel syndroom, laten we een aantal aanvullende grondbeginselen uiteenzetten over zeer essentiële onderwerpen. We moeten even een frisse duik nemen in AI Ethics en vooral de komst van Machine Learning (ML) en Deep Learning (DL).

Je bent je er misschien vaag van bewust dat een van de luidste stemmen tegenwoordig in het AI-veld en zelfs buiten het veld van AI bestaat uit het roepen om een ​​grotere schijn van ethische AI. Laten we eens kijken naar wat het betekent om te verwijzen naar AI Ethics en Ethical AI. Bovendien zullen we onderzoeken wat ik bedoel als ik het heb over Machine Learning en Deep Learning.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Laten we terugkeren naar onze focus op de hete aardappel en het potentieel rampzalige gebruik ervan in AI. Er is ook een duivelsheid die ook op de loer kan liggen in de hete aardappeltruc.

Als een korte samenvatting van de AI-manifestatie van het hete aardappelgambit:

  • AI en een mens-in-the-loop werken samen aan een bepaalde taak
  • AI heeft soms controle
  • De mens-in-de-loop heeft een deel van de tijd controle
  • Er is een vorm van overdrachtsprotocol tussen de AI en de mens
  • De overdracht kan zeer zichtbaar zijn, of het kan subtiel en bijna verborgen zijn
  • Dit is meestal allemaal in een realtime context (er is iets actiefs aan de hand)

De primaire focus hierin is wanneer de overdracht in wezen een hete aardappel is en de AI ervoor kiest om de controle plotseling over te dragen aan de mens. Houd er rekening mee dat ik hierin later ook het andere facet zal behandelen, namelijk het als een hete aardappel overdragen van de menselijke controle aan de AI.

Bedenk eerst wat er kan gebeuren als de AI een hete aardappel overdraagt ​​aan een mens-in-de-loop.

Ik ga naar de mens verwijzen als de mens-in-the-loop omdat ik zeg dat de mens al een essentieel onderdeel is van de aan de gang zijnde activiteit. We zouden andere scenario's kunnen hebben waarbij een mens die niet speciaal betrokken was bij de activiteit, misschien een onbekende in de hele zaak, de hete aardappel krijgt van de AI, dus houd er rekening mee dat er andere smaken van dit milieu bestaan.

Als ik je een hete aardappel zou overhandigen en dat op een redelijke manier zou willen doen, zou ik je misschien willen waarschuwen dat ik dingen aan je ga overhandigen. Bovendien zou ik proberen dit te doen als ik oprecht geloofde dat het bezitten van de hete aardappel in het algemeen beter was dan dat ik het had. Ik zou mentaal uitrekenen of je het moet hebben of dat ik ermee door moet gaan.

Stel je een basketbalspel voor. Jij en ik zitten in hetzelfde team. Hopelijk werken we samen om te proberen de wedstrijd te winnen. Er staan ​​nog maar een paar seconden op de klok en we moeten dringend scoren, anders verliezen we de wedstrijd. Ik ga in positie om het laatste schot te nemen. Moet ik dat doen, of moet ik de bal naar jou doorgeven en moet jij het laatste schot nemen?

Als ik een betere basketballer ben en een grotere kans heb om het schot te laten zinken, moet ik waarschijnlijk het basketbal houden en proberen het schot te maken. Als je een betere basketballer bent dan ik, zou ik waarschijnlijk de bal naar jou moeten spelen en jou laten schieten. Andere overwegingen komen naar voren, zoals wie van ons in een betere positie op het veld is om het schot te nemen, plus of een van ons uitgeput is omdat het spel bijna voorbij is en misschien versleten en niet up-to-par is op hun schietpartij. Enz.

Met al die factoren in het midden van het gekwelde moment, moet ik beslissen of ik de bal wil houden of aan jou wil doorgeven.

Realiseer je goed dat in dit scenario de klok cruciaal is. U en ik worden allebei geconfronteerd met een uiterst tijdige reactie. Het hele spel staat nu op het spel. Als de klok eenmaal om is, hebben we ofwel gewonnen omdat een van ons het schot heeft gemaakt, of we hebben verloren omdat we hem niet hebben laten zinken. Ik zou misschien de held kunnen zijn als ik de mand laat zinken. Of je zou de held kunnen zijn als ik de bal naar jou speel en jij hem laat zinken.

Er is ook de geitenkant of nadelen hiervan. Als ik de bal houd en het schot mis, kan iedereen me ervan beschuldigen de geit te zijn of het hele team in de steek te laten. Aan de andere kant, als ik de bal naar jou speel en jij mist het schot, nou, dan word jij de geit. Dit is misschien helemaal oneerlijk tegenover je, omdat ik je dwong om de laatste schutter te zijn en het laatste schot te nemen.

Je zou zeker weten dat ik je in die onaangename positie heb gebracht. En hoewel iedereen me dit kon zien doen, hoeven ze zich alleen maar te concentreren op de laatste persoon die de bal had. Ik zou eventueel gratis skaten. Niemand zou zich herinneren dat ik je op het laatste moment de bal heb gepasseerd. Ze zouden zich alleen herinneren dat je de bal had en de wedstrijd verloor omdat je het schot niet maakte.

Oké, dus ik geef de bal aan jou.

Waarom deed ik dat?

Er is geen gemakkelijke manier om dit te bepalen.

Mijn ware bedoelingen zouden kunnen zijn dat ik niet vast wilde komen te zitten als de geit, en dus koos ik ervoor om alle druk op jou te leggen. Op de vraag waarom ik de bal passeerde, kon ik beweren dat ik dat deed omdat ik dacht dat je een betere schutter was dan ik (maar laten we doen alsof ik dat helemaal niet geloof). Of ik dacht dat je in een betere positie was dan ik (laten we doen alsof ik dit ook niet dacht). Niemand zou ooit weten dat ik eigenlijk gewoon probeerde te voorkomen dat ik vast kwam te zitten met de hete aardappel.

Van de buitenkant bezien, kon niemand gemakkelijk mijn ware reden ontdekken om de bal naar jou te spelen. Misschien deed ik dat onschuldig omdat ik dacht dat jij de betere speler was. Dat is één hoek. Misschien deed ik dat omdat ik niet wilde dat iedereen me een verliezer zou noemen omdat ik het schot mogelijk had gemist, dus ik kreeg de bal bij jou en dacht dat het een enorme opluchting voor me was. Of ik echt om je gaf, is een heel andere zaak.

We kunnen nu wat meer details toevoegen aan de AI-gerelateerde hete aardappel:

  • De AI kiest ervoor om op het laatste moment controle te geven aan de mens-in-de-loop
  • Het laatste moment kan al veel verder gaan dan enige menselijke levensvatbare actie
  • De mens-in-de-lus heeft controle, maar enigszins ten onrechte vanwege de timing van de overdracht

Denk hier even over na.

Stel dat een AI-systeem en een mens-in-de-loop samenwerken aan een real-time taak waarbij een grootschalige machine in een fabriek draait. De AI detecteert dat de machine in de war raakt. In plaats van dat de AI de controle blijft behouden, geeft de AI de controle abrupt over aan de mens. De machines in deze fabriek gaan snel naar pure chaos en er is geen tijd meer voor de mens om corrigerende maatregelen te nemen.

De AI heeft de hete aardappel overgedragen aan de mens-in-de-loop en de mens met de ware hete aardappel opgejaagd, zodanig dat de omstandigheden menselijkerwijs niet meer te verwerken zijn. Tag, jij bent het, gaat de oude lijn bij het spelen van tag-games als kind. De mens is laten we zeggen getagd met de rotzooi.

Net als mijn voorbeeld over het basketbalspel.

Waarom deed de AI de overdracht?

Welnu, in tegenstelling tot wanneer een mens abrupt een basketbal overhandigt en dan wat wild zwaait over waarom ze dat deden, kunnen we meestal de AI-programmering onderzoeken en erachter komen wat ertoe leidde dat de AI dit soort hete aardappeloverdracht deed.

Een AI-ontwikkelaar heeft misschien van tevoren besloten dat wanneer de AI in een echt slechte situatie komt, de AI de controle moet geven aan de mens-in-the-loop. Dit lijkt volkomen verstandig en redelijk. De mens kan op het veld 'de betere speler' zijn. Mensen kunnen hun cognitieve vermogens gebruiken om potentieel elk probleem op te lossen. De AI heeft mogelijk de grenzen van zijn programmering bereikt en er is niets anders constructiefs dat het in de situatie kan doen.

Als de AI de overdracht had gedaan met nog een minuut te gaan voordat de machine kapot ging, is misschien een minuut heads-up lang genoeg zodat de mens-in-the-loop dingen kan corrigeren. Stel echter dat de AI de overdracht deed met nog drie seconden te gaan. Denk je dat een mens zou kunnen reageren in dat tijdsbestek? Onwaarschijnlijk. In ieder geval, om de zaken nog minder gekibbel te maken, veronderstel dat de overdracht aan de mens-in-de-loop plaatsvond met nog een paar nanoseconden te gaan (een nanoseconde is een miljardste van een seconde, wat in vergelijking een snel knipperen van het oog is een trage 300 milliseconden lang).

Zou een mens-in-de-loop voldoende kunnen reageren als de AI de hete aardappel heeft overhandigd met slechts piepkleine fracties van seconden over om openlijke actie te ondernemen?

Nr.

De overdracht is meer een leugen dan het anders zou lijken.

In werkelijkheid zal de overdracht geen goed doen als het gaat om de hachelijke situatie. De AI heeft de mens geknepen om de geit te worden.

Sommige AI-ontwikkelaars denken hier niet over na als ze hun AI bedenken. Ze houden er (ten onrechte) gelukzalig geen rekening mee dat tijd een cruciale factor is. Het enige wat ze doen is ervoor kiezen om een ​​overdracht te programmeren als het moeilijk wordt. Als er niets meer is voor de AI om constructief te doen, gooi de bal dan naar de menselijke speler.

AI-ontwikkelaars kunnen hier geen toegewijde aandacht aan besteden op het moment dat ze de AI coderen, en ze falen dan vaak door geen tests uit te voeren die dit aan het licht brengen. Het enige dat hun tests laten zien, is dat de AI "plichtsgetrouw" een overdracht deed toen de limieten van de AI werden bereikt. Voila, de AI wordt verondersteld goed te zijn en klaar voor gebruik. De tests omvatten geen echte mens die in die niet-benijdenswaardige en onmogelijke positie werd geplaatst. Er was geen echt mens-in-the-loop testproces dat zou hebben kunnen protesteren dat deze handoff in een oogwenk op het laatste moment, of zelfs na het laatste moment, hen weinig of geen goed deed.

Natuurlijk zullen sommige AI-ontwikkelaars dit soort hachelijke situaties slim hebben overwogen.

Nadat ze over het raadsel hebben nagedacht, zullen ze doorgaan met het programmeren van de AI om hoe dan ook op deze manier te handelen.

Waarom?

Omdat er niets anders te doen is, althans in hun hoofd. Als al het andere faalt, geef de besturing dan over aan de mens. Misschien gebeurt er een wonder. De essentie is echter dat dit niet van belang is voor de AI-ontwikkelaar, en ze geven de mens de laatste kans om met de rommel om te gaan. De AI-ontwikkelaar wast hun handen van wat er daarna gebeurt.

Ik wil duidelijk maken dat AI-ontwikkelaars niet de enige bedenkers zijn van deze hete aardappelontwerpen. Hiervoor komen nog tal van andere belanghebbenden om de tafel. Misschien had een systeemanalist die de specificaties en vereistenanalyse deed, verklaard dat dit is wat de AI zou moeten doen. De betrokken AI-ontwikkelaars hebben de AI dienovereenkomstig gemaakt. Misschien heeft de AI-projectmanager dit bedacht. De leidinggevenden en het management die toezicht houden op de AI-ontwikkeling hebben dit misschien bedacht.

Iedereen tijdens de hele levenscyclus van de AI-ontwikkeling zou hetzelfde ontwerp van de hete aardappel kunnen hebben doorgevoerd. Of iemand het heeft opgemerkt, kunnen we niet met zekerheid zeggen. Als ze het hadden opgemerkt, waren die misschien als nee-zeggers bestempeld en opzij geschoven. Anderen hadden de zaak misschien onder hun aandacht gebracht, maar ze begrepen de gevolgen niet. Ze vonden dat het een technisch detail was dat niet binnen hun bereik lag.

Ik zal aan deze informele lijst van "redenen" een veel meer snode mogelijkheid toevoegen.

Een AI Hot Potato Syndrome wordt soms opzettelijk gebruikt omdat degenen die de AI maakten hun hartstochtelijke claim op plausibele ontkenning wilden hebben.

Bereid je voor op dit deel van het verhaal.

In het geval van de fabrieksmachines die in de war raken, zal er ongetwijfeld veel met de vinger worden gewezen over wie verantwoordelijk is voor wat er is gebeurd. Wat betreft het bedienen van de machines, we hadden een AI-systeem dat dit deed en we hadden een mens-in-the-loop die dit deed. Dit zijn onze twee basketballers, metaforisch gezien.

De klok liep naar beneden en de machines stonden op het punt om kaboem te worden. Laten we zeggen dat jij en ik weten dat de AI een overdracht heeft gedaan aan de mens-in-the-loop, waarbij er onvoldoende tijd over was voor de mens om voldoende actie te ondernemen om de ramp te corrigeren of te voorkomen. Niemand anders realiseert zich dat dit is gebeurd.

De firma die de AI maakt kan in ieder geval meteen verklaren dat ze geen schuld hebben omdat de mens de controle had. Volgens hun onberispelijke gegevens had de AI geen controle op het moment van de kaboom. De mens was. Daarom is het duidelijk overduidelijk dat een mens schuldig is.

Liegt het AI-bedrijf eigenlijk bij het maken van deze uitgesproken bewering?

Nee, ze lijken de waarheid te vertellen.

Op de vraag of ze zeker weten dat de AI de controle niet had, zou het bedrijf luid en trots verkondigen dat de AI helemaal niet de controle had. Ze hebben het bewijs van deze bewering gedocumenteerd (ervan uitgaande dat de AI een logboek bijhield van het incident). De leidinggevenden van het AI-bedrijf zouden zelfs hun wenkbrauwen kunnen optrekken van walging dat iemand hun integriteit op dit punt zou betwisten. Ze zouden bereid zijn om op hun heilige eed te zweren dat de AI was niet onder controle. De mens-in-de-loop had de controle.

Ik vertrouw erop dat u ziet hoe misleidend dit kan zijn.

Ja, de mens kreeg de controle overhandigd. In theorie had de mens de touwtjes in handen. De AI had het niet meer onder controle. Maar het gebrek aan beschikbare timing en kennisgeving maakt dit vrijwel een buitengewoon holle claim.

Het mooie hiervan, vanuit het perspectief van de AI-maker, zou zijn dat maar weinigen de beweringen zouden kunnen betwisten. De AI-maker geeft de logboeken van het incident mogelijk niet vrij. Hierdoor zou de vervalste situatie kunnen worden verraden. Er wordt beweerd dat de logs intellectueel eigendom (IP) zijn of anderszins van eigendomsrechtelijke en vertrouwelijke aard. Het bedrijf zou waarschijnlijk beweren dat als de logboeken zouden worden getoond, dit de geheime saus van hun AI zou laten zien en hun gewaardeerde IP zou uitputten.

Stel je de benarde situatie van de arme mens-in-the-loop voor. Ze zijn verbijsterd dat iedereen hen de schuld geeft dat ze dingen uit de hand hebben gelopen. De AI "deed het juiste" en gaf de controle over aan de mens. Dit zou kunnen zijn wat de specificaties zeiden te doen (nogmaals, de specificaties waren nalatig door geen rekening te houden met de timing en haalbaarheidsfactoren). De logboeken die niet zijn vrijgegeven, maar waarvan wordt beweerd dat ze ijzersterk zijn door de AI-maker, getuigen van het absolute feit dat de mens de controle had gekregen van de AI.

Je zou dit kunnen bestempelen als een jammerlijke slam-dunk op de verbijsterde mens die vrijwel zeker ten val zal komen.

De kans is groot dat alleen als dit voor de rechter komt, de realiteit van wat er is gebeurd aan het licht komt. Als de slimme legale beagles op de hoogte zijn van dit soort optreden, zouden ze proberen de logs legaal te verkrijgen. Ze zouden een getuige-deskundige nodig hebben (iets wat ik van tijd tot tijd had gedaan) om de logboeken te ontcijferen. De logs alleen zijn misschien niet genoeg. De logboeken kunnen worden bewerkt of gewijzigd, of met opzet zijn ontworpen om de details niet duidelijk weer te geven. Als zodanig moet mogelijk ook in de AI-code worden gegraven.

Ondertussen, tijdens dit pijnlijke en langdurige proces van juridische ontdekking, zou de mens-in-de-loop er echt slecht uitzien. De media zouden de persoon afschilderen als onverantwoordelijk, het hoofd verloren, niet ijverig zijn en volledig verantwoordelijk moeten worden gehouden. Mogelijk gedurende maanden of jaren, tijdens dit proces, zou die persoon nog steeds degene zijn naar wie iedereen een beschuldigende vinger wees. De stank zal misschien nooit worden verwijderd.

Houd er ook rekening mee dat dezelfde omstandigheid gemakkelijk opnieuw kan gebeuren. En opnieuw. Ervan uitgaande dat de AI-maker de AI niet heeft gewijzigd, zal de AI die tijdloze overdracht doen wanneer zich een vergelijkbare last-minute situatie voordoet. Je zou hopen dat deze situaties niet vaak voorkomen. In de zeldzame gevallen dat het voorkomt, is de mens-in-de-loop nog steeds de geschikte valsspeler.

Het is een duivelse truc.

Je zou willen beweren dat de AI-maker niets verkeerd heeft gedaan. Ze vertellen de waarheid. De AI gaf de controle op. De mens werd toen beschouwd als de baas. Dat zijn de feiten. Het heeft geen zin om het te betwisten.

Of iemand nu verstandig is en de moeilijke vragen stelt, en of de AI-maker die vragen op een eenvoudige manier beantwoordt, dit lijkt zelden te gebeuren.

Vragen zijn onder meer:

  • Wanneer deed de AI de overdracht aan de mens-in-de-loop?
  • Op welke geprogrammeerde basis deed de AI de overdracht?
  • Kreeg de mens-in-de-loop voldoende tijd om de controle over te nemen?
  • Hoe is de AI ontworpen en bedacht voor deze dilemma's?
  • En ga zo maar door.

Tot op zekere hoogte is dat de reden waarom AI Ethics en Ethical AI zo'n cruciaal onderwerp is. De voorschriften van AI Ethics zorgen ervoor dat we waakzaam blijven. AI-technologen kunnen soms in beslag worden genomen door technologie, met name de optimalisatie van hightech. Ze houden niet per se rekening met de grotere maatschappelijke gevolgen. Het hebben van een AI-ethiek-mindset en dit integraal doen voor AI-ontwikkeling en fielding is van vitaal belang voor het produceren van geschikte AI, inclusief (misschien verrassend of ironisch genoeg) de beoordeling van hoe AI-ethiek door bedrijven wordt aangenomen.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen zelfs van tevoren dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

Op dit moment van deze gewichtige discussie, durf ik te wedden dat u op zoek bent naar enkele aanvullende illustratieve voorbeelden die dit onderwerp zouden kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid als expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over het AI Hot Potato Syndrome, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI Hot Potato Syndrome

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik hoop dat dit een voldoende litanie van voorbehouden biedt om ten grondslag te liggen aan wat ik ga vertellen.

Voor volledig autonome voertuigen is er mogelijk geen kans op een overdracht tussen de AI en een mens, vanwege de mogelijkheid dat er om te beginnen geen mens in de lus is. Het streven van veel van de hedendaagse zelfrijdende autofabrikanten is om de menselijke bestuurder volledig uit de rijtaak te halen. Het voertuig zal zelfs geen voor mensen toegankelijke bedieningselementen bevatten. In dat geval kan een menselijke bestuurder, indien aanwezig, niet deelnemen aan de rijtaak omdat hij geen toegang heeft tot de bedieningselementen voor het rijden.

Voor sommige volledig autonome voertuigen laten sommige ontwerpen het nog steeds toe dat een mens in-the-loop is, hoewel de mens helemaal niet beschikbaar hoeft te zijn of deel te nemen aan het rijproces. Zo kan een mens deelnemen aan het autorijden, als de persoon dat wenst. Op geen enkel moment is de AI echter afhankelijk van de mens om een ​​van de rijtaken uit te voeren.

Bij semi-autonome voertuigen is er een hand in hand relatie tussen de menselijke bestuurder en de AI. Voor sommige ontwerpen kan de menselijke bestuurder de besturingselementen volledig overnemen en in wezen voorkomen dat de AI deelneemt aan het rijden. Als de menselijke bestuurder de AI weer in de bestuurdersrol wil terugbrengen, kan hij dat doen, hoewel dit de mens dan soms dwingt de besturingselementen voor het besturen op te geven.

Een andere vorm van semi-autonoom opereren zou inhouden dat de menselijke bestuurder en de AI in teamverband samenwerken. De AI rijdt en de mens rijdt. Ze rijden samen. De AI zou zich kunnen overgeven aan de mens. De mens kan de AI uitstellen.

Op een bepaald moment kan het AI-aandrijfsysteem computationeel vaststellen dat de zelfrijdende auto op weg is naar een onhoudbare situatie en dat het autonome voertuig gaat crashen.

Even terzijde, sommige experts beweren dat zelfrijdende auto's niet kunnen crashen, wat pure onzin is en een schandalig en verkeerd ding om te zeggen, zie mijn bericht op de link hier.

Voortbordurend op het scenario van een zelfrijdende auto die op weg is naar een botsing of auto-ongeluk, kan het AI-aandrijfsysteem zo zijn geprogrammeerd dat het de besturingselementen voor het besturen van de auto summier overdraagt ​​aan de menselijke bestuurder. Als er voldoende tijd is voor de menselijke bestuurder om ontwijkend in te grijpen, kan dit inderdaad verstandig en gepast zijn voor de AI.

Maar stel dat de AI de overdracht doet met nog een fractie van een fractie van een seconde te gaan. De reactietijd van de menselijke bestuurder is lang niet snel genoeg om adequaat te reageren. En als de mens op wonderbaarlijke wijze snel genoeg was, is de kans groot dat er geen haalbare ontwijkingsacties kunnen worden ondernomen met de beperkte tijd die resteert voor de crash. Dit is een tweeledigheid: (1) onvoldoende tijd voor de menselijke bestuurder om actie te ondernemen, (2) onvoldoende tijd dat, indien actie mogelijk was door de menselijke bestuurder, de actie zou kunnen worden uitgevoerd in de ontoereikende hoeveelheid tijd.

Al met al is dit verwant aan mijn eerdere discussie over de situatie van de basketbalzoemer en het scenario van de fabrieksmachines die op hol sloegen.

Laten we hier het snode ingrediënt aan toevoegen.

Een autofabrikant of zelfrijdend technologiebedrijf wil niet worden getagd met verschillende auto-ongelukken die in hun wagenpark hebben plaatsgevonden. Het AI-aandrijfsysteem is geprogrammeerd om altijd de controle over te dragen aan de menselijke bestuurder, ongeacht of er voldoende tijd is voor de menselijke bestuurder om iets aan de hachelijke situatie te doen. Telkens wanneer zich een dergelijk auto-ongeluk voordoet, kan de autofabrikant of het zelfrijdende technologiebedrijf vocaal volhouden dat de menselijke bestuurder aan het stuur zat, terwijl de AI dat niet was.

Hun staat van dienst op het gebied van AI-aandrijfsystemen lijkt geweldig te zijn.

Niet één keer is het AI-aandrijfsysteem "fout" voor deze auto-ongelukken. Het zijn altijd die verdomde menselijke chauffeurs die hun ogen niet op de weg lijken te houden. We hebben misschien de neiging om deze blarney te slikken en te geloven dat de volledig nauwkeurige AI waarschijnlijk nooit ongelijk heeft. We zijn misschien geneigd te geloven (aangezien we dat uit ervaring weten) dat menselijke chauffeurs slordig zijn en tonnen rijfouten maken. De logische conclusie is dat de menselijke bestuurders de schuldige moeten zijn, en het AI-aandrijfsysteem is volkomen onschuldig.

Voordat sommige voorstanders van zelfrijdende auto's boos worden over deze karakterisering, laten we absoluut erkennen dat de menselijke bestuurder mogelijk een fout heeft gemaakt en dat ze eerder actie hadden moeten ondernemen, zoals het overnemen van de besturingselementen van de AI. Ook bestaat de kans dat de menselijke bestuurder iets inhoudelijks had kunnen doen toen de AI de rijbesturing overhandigde. Enz.

De focus lag hier op de omstandigheden waarin de AI werd beschouwd als de bestuurder van het voertuig en vervolgens abrupt en met weinig aandacht voor wat een menselijke bestuurder zou kunnen doen, de hete aardappel naar de menselijke bestuurder gooit. Dit is ook de reden waarom zovelen zich zorgen maken over de dubbele drijvende rol van semi-autonome voertuigen. Je zou kunnen zeggen dat er te veel chauffeurs achter het stuur zitten. Het lijkt erop dat het doel zou zijn om de zaak op te lossen door volledig autonome voertuigen te hebben die geen mens aan het stuur nodig hebben en de AI altijd het voertuig bestuurt.

Dit roept de verwante vraag op over wat of wie verantwoordelijk is als de AI aan het rijden is, die ik vaak heb behandeld in mijn kolommen, zoals de link hier en de link hier.

Conclusie

We moeten voorzichtig zijn als we horen of lezen over auto-ongelukken met semi-autonome voertuigen. Wees op uw hoede voor degenen die ons voor de gek proberen te houden door te verkondigen dat hun AI-aandrijfsysteem een ​​onberispelijke staat van dienst heeft. De achterbakse truc van de AI hete aardappel syndroom zit misschien in de mix.

Voor bedrijven die in deze zaken lastig proberen te zijn, kunnen we misschien de beroemde regel van Abraham Lincoln dicht bij ons hart houden: "Je kunt alle mensen soms voor de gek houden en sommige mensen altijd, maar je kunt niet voor de gek houden alle mensen de hele tijd.”

Ik heb geprobeerd hierin de AI-magie te onthullen die verborgen is achter het scherm en soms onder de motorkap is geplaatst, wat ik heb toegelicht zodat meer mensen zal niet vaker voor de gek worden gehouden.

Bron: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome- Being- Employment-by-ai-makers- schijnbaar-proberen-te-vermijden-verantwoordelijkheid-voor-hun-leven-beslissende-autonome-systemen/