AI-ethiek worstelen met de onvermijdelijke AI-ongevallen, die ook opdoemt over autonome zelfrijdende auto's

Kent u misschien iemand die bijzonder gevoelig lijkt voor ongelukken?

Het lijkt erop dat we dat allemaal doen.

Misschien is de persoon het type dat geneigd is om over een bananenschil te glijden of een kostbare vaas in uw woonkamer omver te werpen. Ze zijn een menselijke magneet voor de een of andere soort ongevallen. Het kan zo erg zijn dat je soms zelfs niet graag bij hen in de buurt bent. Je kunt de onheilspellende overloop krijgen of de roemloze nasleep van een van hun onsmakelijke ongelukken ondergaan.

Maar misschien zijn we overdreven hard wanneer we suggereren dat iemand meer vatbaar is voor ongelukken dan anderen. Er zou een argument kunnen worden aangevoerd dat elk van ons ongelukken kan overkomen. We zijn allemaal onderhevig aan de mogelijkheid om een ​​ongeval te begaan of betrokken te raken. De beste van ons inbegrepen.

Laten we bovenop deze discussie een extra irritante vraag stellen.

Zijn ongelukken onvermijdelijk?

Met andere woorden, hoe hard we ook proberen om ongevallen te voorkomen, het kan onlosmakelijk zijn dat er toch een kans op en een ultieme zekerheid is dat er ongelukken zullen gebeuren. Je kunt proberen de wereld te beschermen tegen ongelukken. Dat lijkt ongetwijfeld verstandig. Maar op de een of andere manier zullen ongelukken nog steeds hun lelijke kop opsteken.

Zoals ze zeggen, ongelukken wachten om te gebeuren.

Het kan nuttig zijn om te verduidelijken wat wordt bedoeld door te verwijzen naar een gebeurtenis als passend bestempeld als een ongeval. De gebruikelijke woordenboekdefinitie is dat een ongeval een type incident is dat onverwacht en onbedoeld plaatsvindt, met een ongelukkig resultaat dat bestaat uit een schijn van schade of letsel.

Pak die definitie bewust uit.

Het genoemde incident is onverwacht. Dit impliceert dat we niet leken te beseffen dat het ongeval zelf zou gebeuren.

Het genoemde incident is onopzettelijk. Dit suggereert dat we de omstandigheden moeten uitsluiten waarin iemand opzettelijk heeft geprobeerd het incident te laten plaatsvinden. Als een grappenmaker een bananenschil op de grond legt waar hij weet dat een ongelukkige en nietsvermoedende onschuldige zal stappen, zou je het moeilijk hebben om te beweren dat de persoon die erover struikelde een ongeluk had gehad. Ze werden in plaats daarvan bedrogen en verraderlijk in een val gelokt.

De definitie omvat ook het criterium dat het resultaat ongelukkig is. Een ongeval in dit licht moet tot een zuur resultaat leiden. De persoon die per ongeluk een vaas heeft omgestoten, heeft het genoten item gebarsten en mogelijk onherstelbaar beschadigd. De eigenaar van de vaas wordt benadeeld door waardeverlies. De persoon die de vaas tegenkwam, is nu misschien de eigenaar verschuldigd voor het verlies. De hemel verhoede dat iemand zou zijn gesneden of gesloopt door het breken van de vaas.

Omwille van een gelijk evenwicht willen we misschien opmerken dat er ook zogenaamde "goede" ongevallen zijn. Een persoon kan zich in een groot fortuin bevinden of een ander belangrijk voordeel behalen als gevolg van een ongeval. Een van de meest geciteerde voorbeelden is Sir Alexander Fleming en zijn veelgeprezen ontdekking van penicilline. Het verhaal gaat dat hij een beetje onvoorzichtig was in zijn laboratorium en bij terugkomst van een vakantie van twee weken een schimmel op een van zijn kweekplaten vond. Naar verluidt zei hij hierover het volgende: „Soms vindt men wat men niet zoekt. Toen ik net na zonsopgang op 28 september 1928 wakker werd, was ik zeker niet van plan om de hele geneeskunde te revolutioneren door 's werelds eerste antibioticum of bacteriedoder te ontdekken. Maar ik denk dat dat precies was wat ik deed."

We zullen de gunstige ongevallen opzij zetten en ons hierin concentreren op de akelige ongevallen. De fronsende versie van ongevallen is waar die nadelige gevolgen bijzonder levensbedreigend kunnen zijn of zware gevolgen kunnen hebben. Zoveel mogelijk, de neerwaartse ongevallen die we willen minimaliseren (en, natuurlijk, de opwaartse ongevallen die we willen maximaliseren, als dat haalbaar is, hoewel ik die smiley-variant in een latere kolom zal behandelen).

Ik zou de eerdere vraag over de onvermijdelijkheid van ongevallen iets anders willen formuleren. Tot dusver hebben we onze aandacht gericht op ongevallen die zich voordoen in het specifieke geval van een enkelvoudig persoon. Ongetwijfeld kunnen ongevallen ook een groot aantal mensen tegelijk treffen. Dit kan met name voorkomen wanneer mensen worden ondergedompeld in een of ander complex systeem.

Bereid je voor op een variant op de eerder geopperde vraag.

Zijn systeemongevallen onvermijdelijk?

We moeten hierover nadenken.

Stel dat er een fabrieksvloer wordt ingericht om onderdelen voor auto's te maken. Degenen die de fabriek hebben ontworpen, zijn, laten we zeggen, extreem bezorgd over arbeidsongevallen die zich kunnen voordoen. Fabrieksarbeiders zijn te allen tijde verplicht een helm te dragen. Borden in de fabriek roepen op om op te passen voor ongelukken en om mindful te zijn in je werk. Er worden allerlei voorzorgsmaatregelen genomen om ongelukken te voorkomen.

In dit systeem mogen we hopen dat niemand ooit een ongeluk zal krijgen. Gelooft u dat de kans op een ongeval nihil is? Ik zou durven stellen dat geen enkele redelijke denker zou wedden dat de kans op een ongeval in dit geval nul is. De kans is misschien heel klein dat er een ongeluk gebeurt, maar we weten en gaan er nog steeds vanuit dat er ondanks alle voorzorgsmaatregelen nog steeds een klein risico is dat er een ongeluk zal plaatsvinden.

Dit alles wijst op het idee dat we in een systeem van voldoende complexiteit moeten geloven dat er nog steeds ongelukken zullen gebeuren, hoe hard we ook proberen ze te voorkomen. We steunen ons met tegenzin in de stelling dat systeemongevallen inderdaad onvermijdelijk zijn. Een grandioze uitspraak van dit kaliber zou een waarschuwing kunnen bevatten dat het systeem van een bepaalde drempel van complexiteit zou moeten zijn, zodat het in wezen onmogelijk is om alle bases te dekken om ongevallen volledig te voorkomen.

U bent nu keurig stap voor stap geïntroduceerd in een breed geschetste theorie over ongevallen die gelabeld kan worden als Normale Ongevallen of de Normal Accident Theory (NAT). Hier is een handige beschrijving van onderzoekers die dit idee hebben onderzocht: “Op een voldoende grote schaal zal elk systeem 'normale ongevallen' veroorzaken. Dit zijn onvermijdelijke ongevallen die worden veroorzaakt door een combinatie van complexiteit, koppeling tussen componenten en mogelijke schade. Een normaal ongeval verschilt van meer voorkomende ongevallen met defecte onderdelen doordat de gebeurtenissen en interacties die tot een normaal ongeval leiden, niet begrijpelijk zijn voor de operators van het systeem” (zoals vermeld in “Understanding and Avoiding AI Failures: A Practical Guide” door Robert Williams en Roman Yampolskiy, Filosofieën logboek).

De reden dat ik je naar het land van de zogenaamde... normale ongelukken is dat we deze theorie misschien zorgvuldig moeten toepassen op iets dat geleidelijk en onvermijdelijk alomtegenwoordig wordt in onze samenleving, namelijk de komst van kunstmatige intelligentie (AI).

Laten we ons hierin verdiepen.

Sommige mensen gaan er ten onrechte van uit dat AI perfectie zal zijn. AI-systemen zullen geen fouten maken en ons niet in de problemen brengen, luidt de speculatie. Het enige dat u hoeft te doen, is ervoor zorgen dat die AI-ontwikkelaars hun werk goed genoeg doen, en voila, AI zal nooit iets doen dat kan worden opgevat als per ongeluk of het verwekken van een ongeluk.

Niet zo snel met dat hypothetische geloof. Als je bereid bent om de theorie van normale ongelukken, zal elke AI van enige substantiële complexiteit onvermijdelijk leiden tot een ongeluk. Ongeacht hoeveel late night knutselen die AI-ontwikkelaars doen om een ​​ongeluk te voorkomen, de AI zal zeker op een bepaald moment verwikkeld raken in een ongeluk. Zo verkruimelt het koekje. En er is geen uitstel door erover te huilen in onze gemorste melk.

Denk na over de mashup van AI en de conceptuele principes van normale ongelukken.

Stel je voor dat we een AI-systeem hebben dat kernwapens controleert. De AI is zorgvuldig ontworpen. Elke denkbare check and balance is gecodeerd in het AI-systeem. Zijn we veilig voor een op AI gebaseerd ongeval dat zich zou kunnen voordoen? Degenen die het normale gezichtspunt van ongevallen ondersteunen, zouden zeggen dat we niet zo veilig zijn als zou kunnen worden aangenomen. Gezien het feit dat de AI waarschijnlijk bijzonder complex is, wacht een normaal ongeval daar stilletjes op om op een dag op te duiken, misschien op het slechtst mogelijke moment.

De kern van die netelige vragen en scrupules is dat we op ons hoede moeten zijn dat AI ongetwijfeld met ongelukken te maken heeft, en dat de mensheid iets verstandigs en proactiefs moet doen aan de gevaren die kunnen ontstaan. Zoals je zo meteen zult zien, is dit een dreigende overweging als het gaat om het gebruik van AI, en het gebied van AI-ethiek en ethische AI ​​worstelt nogal wat over wat te doen. Voor mijn doorlopende en uitgebreide berichtgeving over AI Ethics en Ethical AI, zie: de link hier en de link hier, om er een paar te noemen.

Voordat we een konijnenhol ingaan, laten we ervoor zorgen dat we op dezelfde pagina staan ​​over de aard van AI. Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens die je advies geeft. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier). Alles bij elkaar genomen zouden deze scenario's de beoordeling van de bron versnellen.

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je communiceert met Alexa of Siri, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

Alles bij elkaar genomen, is een algemene hoop dat door een gevoel van AI-ethische voorschriften vast te stellen, we op zijn minst in staat zullen zijn om het maatschappelijk bewustzijn te vergroten van wat AI zowel voordelig kan doen als nadelig kan produceren. Ik heb uitgebreid gesproken over verschillende collectieve analyses van ethische principes van AI, waaronder het behandelen van een reeks die is bedacht door onderzoekers die de essentie van talrijke nationale en internationale AI-ethiekprincipes hebben onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

We moeten misschien iets toevoegen aan de geroemde AI Ethics-lijsten die we expliciet moeten overwegen en openlijke actie moeten ondernemen om op AI gebaseerde normale ongelukken dat zou kunnen gebeuren. Degenen die AI ontwikkelen, moeten op dat vlak hun best doen. Degenen die AI inzetten, moeten hetzelfde doen. Degenen die AI gebruiken of er op de een of andere manier aan onderworpen zijn, moeten op hun hoede zijn en op hun hoede zijn voor de mogelijkheid van AI-ongevallen die zich schijnbaar zullen voordoen.

Je zou in de verleiding kunnen komen om te denken dat er voldoende voorzorgsmaatregelen in de AI kunnen worden ingebouwd om de kans op een ongeval tot nul te laten dalen. Voor degenen die techneuten zijn, is de gebruikelijke overmoed dat als een stukje technologie een probleem kan veroorzaken, een ander stukje technologie het probleem zeker kan oplossen. Blijf gewoon steeds meer technologie gooien totdat het probleem verdwijnt.

Welnu, degenen die systeemgerichte ongevallen hebben bestudeerd, zouden geneigd zijn het daar niet mee eens te zijn en beleefd antwoorden op de veronderstelde technische hoogdravendheid door een standpunt in te nemen dat bekend staat als het Zwitserse kaasmodel (SCM): "In de SCM worden de veiligheidslagen gemodelleerd als plakjes kaas met gaten erin die zwakke punten in elke veiligheidslaag vertegenwoordigen. Na verloop van tijd veranderen gaten van vorm en bewegen ze rond. Uiteindelijk, ongeacht hoeveel plakjes kaas (veiligheidslagen) er zijn, zullen de gaten op één lijn liggen, waardoor een rechte schot door alle plakjes kaas mogelijk wordt (er gebeurt een ongeluk)” (volgens het eerder geciteerde artikel van Robert Williams en Roman Yampolskiy ).

Ik wil niet verzanden in deze zijdelingse raaklijn over de vraag of er een gegarandeerde manier is om AI te programmeren om elke kans op een ongeluk volledig en altijd af te wenden. Er zijn allerlei wiskundige en computationele bewijsbenaderingen die worden uitgeprobeerd. Ik denk dat het redelijk en eerlijk is om te verklaren dat we vandaag geen schaalbare werkmethode of technologieën hebben die zo'n nulkans kunnen garanderen, en dat we zeker worden opgezadeld met tonnen AI die pell-mell wordt geproduceerd die we weet zeker niet heeft getracht zich aan dergelijke praktijken te houden. Dat laatste punt is cruciaal, want zelfs als we iets kunnen verzinnen in een AI-lab, is het een lastige kwestie om dat op te schalen naar de ontelbare wilde en zorgeloze AI-inspanningen die aan de gang zijn en dat zal blijven opduiken, een lastige kwestie die waarschijnlijk niet wordt opgelost, zelfs als een rekenmachine zilver kogel bestond.

Een ander punt dat naar mijn mening een korte vermelding verdient, is AI die wordt omgezet in ongepaste handelingen als gevolg van kwaadwillende menselijke actoren. Ik ga die gevallen niet in het rijk van AI-ongevallen plaatsen. Bedenk dat de openingsdiscussie suggereerde dat de woordenboekdefinitie van een ongeval een incident was van een onopzettelijk natuur. Als een menselijke cybercrimineel erin slaagt een AI-systeem slechte dingen te laten doen, classificeer ik die AI niet als het ervaren van een ongeluk. Ik vertrouw erop dat u in die veronderstelling zult instemmen.

Een interessante vraag rijst hoeveel van verschillende ongewenste AI-acties kunnen worden toegeschreven aan puur een AI-ongeval versus de slinkse daad van een cybercrimineel. Volgens sommige van de bestaande databases voor het rapporteren van AI-incidenten, lijkt het erop dat de AI-ongevallen meer gebeuren dan de kwaadwillig aangespoorde incidenten, hoewel je dat idee met een flinke dosis zout moet nemen. Ik zeg dit omdat de verleiding groot is om niet te melden wanneer een AI-systeem is aangevallen, en misschien wat meer bereid te zijn om te melden wanneer zich een AI-ongeval voordoet.

Er is een uiterst belangrijk voorbehoud dat we moeten bespreken met betrekking tot AI-ongevallen.

Het gebruik van de slogan "AI-ongelukken" is over het algemeen onwenselijk en zal een behoorlijke puinhoop veroorzaken voor ons allemaal, wat betekent voor de hele samenleving. Wanneer een mens een ongeluk krijgt, halen we vaak onze schouders op en hebben we sympathie voor de persoon die het ongeluk heeft gehad. We lijken het woord 'ongeluk' te behandelen alsof het betekent dat niemand verantwoordelijk is voor wat er is gebeurd.

Laten we het voorbeeld nemen van een auto-ongeluk. Een auto zwenkt wijd uit bij een bocht naar rechts en ramt per ongeluk een andere auto die rechtdoor reed. Shucks, het was gewoon een ongeluk en gebeurde per ongeluk. Degenen die niet bij het incident betrokken waren, zullen de zaak misschien laten varen als de gebeurtenis wordt gesteld in termen van slechts een ongeluk dat is gebeurd.

Ik heb echter het gevoel dat als je in de auto zat die werd aangereden, je niet zo sympathiek zou zijn tegenover de bestuurder die de te brede bocht maakte. Uw mening zou zeker zijn dat de andere bestuurder een slechte bestuurder was en dat ofwel een ogenschijnlijk illegale of onverstandige rijgedrag tot het auto-ongeluk heeft geleid. Door het incident als een "ongeluk" te bestempelen, is de vastzittende bestuurder nu enigszins benadeeld omdat het de schijn heeft dat het allemaal door toeval is gebeurd, in plaats van via de handen van de bestuurder die het verprutst heeft.

In feite is het woord "ongeval" zo gevuld met verschillende connotaties dat de overheidsstatistieken over auto-ongelukken over het algemeen verwijzen naar de kwestie als auto-botsingen of auto-ongelukken, in plaats van de term auto-ongelukken te gebruiken. Een aanrijding met een auto of een auto-ongeluk lijkt geen gevolgen te hebben voor het ontstaan ​​van het incident. Ondertussen doet de formulering van een "auto-ongeluk" ons bijna denken dat het een gril van het lot was of op de een of andere manier buiten de handen van de mensheid lag.

Je kunt overvloedig zien hoe deze connotatie-overweging een rol speelt bij het verwijzen naar AI-ongevallen. We willen niet dat AI-ontwikkelaars zich verschuilen achter het connotatieschild dat de AI per ongeluk iemand schade heeft toegebracht. Hetzelfde geldt voor degenen die AI inzetten. Je zou kunnen stellen dat de formulering van "AI-ongelukken" bijna een antropomorfisering van AI is die de samenleving zal misleiden om de mensen die achter de schermen van de AI zaten, te laten ontsnappen aan verantwoordelijkheid. Voor mijn discussie over het toenemende belang om mensen verantwoordelijk te houden voor hun AI, zie mijn discussie op: deze link hier en deze link hier.

Ik ga hier voortaan de slogan van AI-ongevallen gebruiken, maar ik doe dat met tegenzin en alleen omdat het de conventionele manier is om naar dit fenomeen te verwijzen. Pogingen om dit anders te verwoorden hebben de neiging om helaas meer opgeblazen te zijn en niet zo gemakkelijk te lezen. Zorg ervoor dat u de slogan interpreteert op een manier die ervoor zorgt dat u niet de andere kant opkijkt en realiseert u zich niet dat de mensen die aan de basis liggen van de AI schuldig zijn wanneer AI misgaat.

Om de waarschijnlijke verwarring of misleidende aspecten van het verwijzen naar AI als ongevallen te helpen illustreren, kunnen we terugkomen op mijn opmerkingen over het omverwerpen van een vaas. Beschouw dit voorbeeld van AI die dat doet: “Dit probleem heeft te maken met dingen die per ongeluk of onverschilligheid door de AI worden gedaan. Een schoonmaakrobot die een vaas omstoot is daar een voorbeeld van. Complexe omgevingen hebben zoveel soorten 'vazen' dat het onwaarschijnlijk is dat we een straf kunnen programmeren voor alle bijwerkingen' (volgens het artikel van Robert Williams en Roman Yampolskiy).

Een AI-systeem dat in een huishouden in gebruik wordt genomen en vervolgens "per ongeluk" een vaas omstoot, lijkt te suggereren dat niemand de schuld mag krijgen van deze nadelige actie van de AI. Het was gewoon een ongeluk, zou men jammerlijk kunnen afkeuren. Aan de andere kant moeten we ons terecht afvragen waarom het AI-systeem niet is geprogrammeerd om de vaasomstandigheden in het algemeen aan te pakken. Zelfs als de AI-ontwikkelaars niet hadden verwacht dat een vaas per se binnen de reikwijdte van de objecten zou vallen die we zouden kunnen tegenkomen, kunnen we ons zeker afvragen waarom er geen overkoepelende objectvermijding was die zou hebben voorkomen dat het AI-systeem de vaas (de AI classificeert de vaas dus misschien niet als een vaas, maar had hem toch kunnen vermijden als een detecteerbaar object dat moet worden vermeden).

Ik heb voorspeld en blijf voorspellen dat we geleidelijk afstevenen op een gigantische juridische strijd over de opkomst van AI-systemen die zichzelf in "AI-ongevallen" brengen en een of andere vorm van schade veroorzaken. Tot nu toe heeft de samenleving geen noemenswaardige reactie gegeven op het juridisch terugdringen van AI die op de markt wordt gepropt en nadelige gevolgen heeft, opzettelijk of onopzettelijk. De huidige AI-trein die een goudkoorts is geworden van halfbakken AI-makers en degenen die haastig de AI-implementatie uitvoeren, hebben nu geluk en blijven relatief onaangetast door civiele rechtszaken en strafrechtelijke vervolgingen.

De AI-gestookte juridische weerslag komt eraan, vroeg of laat.

Verderop, hoe kunnen we proberen om te gaan met de onvermijdelijkheid van zogenaamde AI-ongevallen?

Een ding dat we meteen kunnen doen, is proberen te anticiperen op hoe AI-ongelukken kunnen plaatsvinden. Door te anticiperen op AI-ongevallen, kunnen we op zijn minst proberen middelen te bedenken om ze in te perken of de kans dat ze zich voordoen te minimaliseren. Bovendien kunnen we proberen om vangrails te plaatsen, zodat wanneer er een AI-ongeval plaatsvindt, de kans op demonstratieve schade wordt verkleind.

Een nuttige reeks factoren die werden beschreven in het eerder geciteerde onderzoeksartikel AI-fouten begrijpen en vermijden: een praktische gids omvat deze eigenschappen (zoals geciteerd uit de onderzoekspaper):

  • Het systeem dat wordt beïnvloed door de uitgangen van de AI.
  • Tijdsvertraging tussen AI-uitgangen en het grotere systeem, waarneembaarheid van het systeem, niveau van menselijke aandacht en het vermogen van operators om storingen in de AI te corrigeren.
  • De maximale schade mogelijk door kwaadwillig gebruik van de systemen die de AI bestuurt.
  • Koppeling van de componenten in de nabijheid van de AI en complexiteit van interacties.
  • Kennislacune van AI en andere gebruikte technologieën en het energieniveau van het systeem.

Op dit moment van deze heftige discussie, durf ik te wedden dat u op zoek bent naar enkele illustratieve voorbeelden die het onderwerp AI-ongevallen verder kunnen verduidelijken. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid als expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over de opkomst van zogenaamde AI-ongevallen en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI-incidenten

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te maken in zelfrijdende auto's en de ethische AI-mogelijkheden die de komst van zogenaamde AI-ongevallen met zich meebrengen.

Stel je voor dat een op AI gebaseerde zelfrijdende auto onderweg is in de straten van je buurt en veilig lijkt te rijden. In het begin had je speciale aandacht voor elke keer dat je een glimp van de zelfrijdende auto op kon vangen. Het autonome voertuig viel op door zijn rek met elektronische sensoren, waaronder videocamera's, radareenheden, LIDAR-apparaten en dergelijke. Na vele weken van de zelfrijdende auto die door je gemeente toert, merk je er nu amper iets van. Het is wat jou betreft niet meer dan een auto op de toch al drukke openbare weg.

Om te voorkomen dat je denkt dat het onmogelijk of onwaarschijnlijk is om vertrouwd te raken met het zien van zelfrijdende auto's, heb ik vaak geschreven over hoe de locaties die binnen het bereik van zelfrijdende auto-experimenten vallen, geleidelijk gewend zijn geraakt aan het zien van de opgeknapte voertuigen. Veel van de lokale bevolking veranderden uiteindelijk van mond-gapend rapt gapen naar nu een uitgestrekte geeuw van verveling uitstoten om getuige te zijn van die meanderende zelfrijdende auto's.

Waarschijnlijk de belangrijkste reden op dit moment dat ze de autonome voertuigen opmerken, is vanwege de irritatie- en ergernisfactor. De by-the-book AI-rijsystemen zorgen ervoor dat de auto's zich houden aan alle snelheidslimieten en verkeersregels. Voor hectische menselijke chauffeurs in hun traditionele door mensen bestuurde auto's, raak je soms geïrriteerd als je vastzit achter de strikt gezagsgetrouwe, op AI gebaseerde zelfrijdende auto's.

Dat is iets waar we misschien allemaal, terecht of onterecht, aan moeten wennen.

Terug naar ons verhaal.

Op een dag krijgt de zelfrijdende auto een ongeluk.

Bij het maken van een bocht naar rechts zwaaide het AI-aandrijfsysteem het autonome voertuig wijd uit en werd een door mensen bestuurde auto geraakt. De door mensen bestuurde auto reed rechtdoor op de juiste rijstrook. Er was geen specifieke mogelijkheid voor de menselijke bestuurder om uit te wijken of te voorkomen dat hij werd geraakt. Bovendien was er geen waarschuwing of indicatie van de zelfrijdende auto dat hij op grote schaal de juiste bocht zou maken.

Is dit een ongeluk?

We kunnen zeker zeggen dat het valt onder de noemer van een AI-ongeval. De basis voor een dergelijke bewering is dat er een AI-aandrijfsysteem aan het stuur van de zelfrijdende auto zat. Op de een of andere manier, om wat voor reden dan ook, koos de AI ervoor om een ​​brede zwaai te maken bij het nemen van een bocht naar rechts. Het resultaat leidde ertoe dat de zelfrijdende auto een door mensen bestuurde auto raakte.

Denk aan de eerdere discussie over de connotaties van het woord 'ongeluk' en kijk hoe dergelijke ondertonen in dit scenario gaan spelen. Onthoud ook dat we het geval hebben besproken van een menselijke bestuurder die een brede bocht naar rechts maakt en een door een medemens aangedreven auto tegenkomt. We realiseerden ons dat het idee dat deze handeling een 'ongeluk' is, misleidend en verwarrend is. De menselijke bestuurder die de brede zwaai maakte, kon zich verschuilen achter het idee dat er slechts een ongeluk plaatsvond dat schijnbaar toevallig was of de grillen van het lot.

In plaats van het scenario te bestempelen als een "AI-ongeval" in het geval van een op AI gebaseerde zelfrijdende auto die breed gaat en de door mensen bestuurde auto raakt, moeten we misschien zeggen dat het een auto-ongeluk of een auto-botsing was waarbij een zelfrijdende auto betrokken was. rijdende auto en een door mensen aangedreven auto. We kunnen dan afzien van de loze verwarring dat het een ongeluk met onkenbare middelen is.

Wat denk je dat de publieke reactie op het incident zou zijn?

Welnu, als de autofabrikant of het zelfrijdende technologiebedrijf zich kan houden aan de etikettering van de zaak als een ongeval, kunnen ze misschien de mogelijke reactie van de gemeenschap in het algemeen omzeilen. Een gevoel van sympathie voor ongelukken zou allemaal kunnen overgaan op de specifieke omstandigheid. Voor meer informatie over hoe steden, provincies en staatsleiders mogelijk zullen reageren op AI-incidenten met autonome voertuigen, zie de bespreking van een Harvard-onderzoek dat ik mede leidde en zoals beschreven op de link hier.

Als de situatie duidelijk wordt omschreven als een auto-ongeluk of auto-botsing, zou dat misschien kunnen leiden tot het besef dat iemand of iets misschien verantwoordelijk is voor het incident. Een reflexmatige reactie zou kunnen zijn dat de AI verantwoordelijk wordt gehouden. Het punt is, totdat of als we ooit besluiten om AI te zalven met een schijn van rechtspersoonlijkheid, je niet in staat zult zijn om de verantwoordelijkheid op de AI per se af te schuiven (zie mijn discussie over AI en rechtspersoonlijkheid op de link hier).

We kunnen het AI-aandrijfsysteem inspecteren om erachter te komen wat leidde tot het schijnbaar ongepaste rijgedrag en het daaropvolgende auto-ongeluk. Dat betekent echter niet dat de AI verantwoordelijk zal worden gehouden. De verantwoordelijke partijen zijn onder meer de AI-ontwikkelaars, de wagenparkbeheerder van de zelfrijdende auto. Ik neem ook anderen mee, omdat de mogelijkheid bestaat dat de stad gedeeltelijk verantwoordelijk wordt gehouden voor het ontwerp van de hoek waar de bocht plaatsvond. Stel bovendien dat een voetganger uit de hoek schiet en het AI-aandrijfsysteem ervoor kiest om de persoon te ontwijken en toch verstrikt raakt in het auto-ongeluk.

En ga zo maar door.

Conclusie

We zouden willen weten wat de AI rekenkundig aan het berekenen was en waarvoor het was geprogrammeerd. Deed de AI wat gecodeerd was? Misschien is de AI een bug of fout tegengekomen in de programmering, wat geen excuus is voor de acties, maar meer een idee geeft van hoe de crash tot stand kwam.

Wat voor soort AI-vangrails zijn geprogrammeerd in het AI-aandrijfsysteem? Als er vangrails waren, zouden we willen weten waarom ze het auto-ongeluk niet leken te voorkomen. Misschien had het AI-aandrijfsysteem tot stilstand kunnen komen in plaats van de bocht te nemen. We willen graag weten welke alternatieven de AI in de loop van het incident rekenkundig heeft beoordeeld.

Naast het doorgronden van het specifieke incident, is een andere terechte vraag of het AI-aandrijfsysteem een ​​fout heeft of een ander ingebed aspect dat vergelijkbare soorten nadelige handelingen zal veroorzaken. In wezen kan dit incident een veelbetekenende indicator zijn voor meer dat komen gaat. Hoe werden computersimulaties van rijsituaties gebruikt om te proberen te anticiperen op dit type AI-aandrijfsysteem? Waren er voldoende rijtests om de AI-problemen op te sporen die mogelijk tot het auto-ongeluk hebben geleid?

Dit scenario belicht een controversieel raadsel waarmee de opkomst van op AI gebaseerde zelfrijdende auto's wordt geconfronteerd.

Het gaat als volgt.

Aan de ene kant is er een maatschappelijke wens om zelfrijdende auto's snel te adopteren vanwege de hoop dat AI-rijsystemen net zo veilig of mogelijk veiliger zullen zijn dan menselijke bestuurders. Alleen al in de Verenigde Staten vallen momenteel jaarlijks bijna 40,000 mensendoden als gevolg van auto-ongelukken en ongeveer 2.5 miljoen menselijke verwondingen. Analyses suggereren dat een aanzienlijk deel van die auto-ongelukken te wijten is aan menselijke fouten, zoals rijden onder invloed, rijden onder invloed, enz. (zie mijn beoordeling van dergelijke statistieken op de link hier).

AI-aandrijfsystemen zullen niet drinken en rijden. Ze hebben geen rust nodig en raken niet uitgeput achter het stuur. De veronderstelling is dat we het aantal menselijke chauffeurs kunnen verminderen door zelfrijdende auto's als een levensvatbaar vervoermiddel te introduceren. Dit zou op zijn beurt moeten betekenen dat we het aantal jaarlijkse menselijke doden en gewonden als gevolg van auto-ongelukken summier zullen verminderen.

Sommige experts hebben gezegd dat we zullen eindigen met nul dodelijke slachtoffers en nul gewonden, en die zelfrijdende auto's zullen zogenaamd niet crashen, maar dit is een totaal absurde en volkomen verkeerde reeks verwachtingen. Ik heb uitgelegd waarom dit zo oneerlijk is bij de link hier.

Neem in ieder geval aan dat we een aantal auto-ongelukken zullen hebben waarbij zelfrijdende auto's betrokken raken. Neem ook aan dat die auto-ongelukken een aantal doden en gewonden zullen hebben. De vraag die wordt gekweld is of we als samenleving bereid zijn dergelijke gevallen überhaupt te tolereren. Sommigen zeggen dat als er zelfs maar één dodelijk ongeval of één verwonding gebeurt als gevolg van echte zelfrijdende auto's, de hele uitrusting en kaboodle moeten worden gesloten.

Het tegengestelde standpunt is dat als de geredde levens de jaartelling verminderen, we de komst van zelfrijdende auto's moeten blijven aanmoedigen en niet op zo'n onlogische manier moeten reageren. We zullen de veronderstelling moeten accepteren dat er nog steeds een aantal doden en gewonden zullen zijn, zelfs met zelfrijdende auto's, en toch moeten we ons realiseren dat de jaarlijkse telling als deze wordt verlaagd, suggereert dat we op de goede weg zijn.

Natuurlijk beweren sommigen dat we geen zelfrijdende auto's op onze openbare wegen zouden moeten hebben totdat ze zijn goedgekeurd voor dergelijk gebruik als resultaat van uitgebreide en uitputtende computergebaseerde simulaties of als via privé gesloten circuittests. Het tegenargument is dat de enige haalbare en snelste manier om zelfrijdende auto's aan de gang te krijgen, is door gebruik te maken van de openbare weg en dat eventuele vertragingen bij het adopteren van zelfrijdende auto's anders de afschuwelijke aantallen door mensen aangedreven auto-ongelukken zullen laten voortduren. Ik heb dit debat uitgebreider behandeld in mijn columns en ik dring er bij de lezers op aan om naar die discussies te kijken om een ​​volledig beeld te krijgen van de perspectieven op deze controversiële kwestie.

Laten we de zaken voor nu afronden.

AI-ongelukken gaan gebeuren. We moeten weerstand bieden aan de impuls om een ​​AI-ongeval als schijnbaar te beschouwen toevallig en laat dus ten onrechte de makers en degenen die AI inzetten, categorisch van de haak.

Er is een extra wending waarmee ik je achterlaat als een laatste intrigerende gedachte voor je dag.

De komiek Dane Cook vertelde naar verluidt deze grap over auto-ongelukken: “Een paar dagen geleden kreeg ik een auto-ongeluk. Niet mijn schuld. Zelfs als het niet jouw schuld is, stapt de andere persoon uit zijn auto en kijkt je aan alsof het jouw schuld is: waarom stopte je voor een rood licht en liet ik je over 80 rijden!”

Waar de wending naar voren komt, is de mogelijkheid dat een AI-systeem ervoor kiest om erop te staan ​​dat wanneer een AI-ongeval plaatsvindt waarbij die specifieke AI is betrokken, de AI beweert dat het incident de schuld van de mens was en zeker niet de schuld van de AI. Trouwens, dit zou overduidelijk waar kunnen zijn en de mens zou kunnen proberen de AI tot zondebok te maken door te beweren dat het de schuld van de AI was.

Of misschien probeert de AI de mens tot zondebok te maken.

Zie je, de AI die we bedenken, kan op die manier lastig zijn, per ongeluk of niet.

Bron: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-who-looms-over-autonomous-self- autorijden-ook/