Ethische AI ​​die ambitieus hoopt dat AI zelf ethisch gedrag leert, zoals het geval is met AI in autonome, zelfrijdende auto's

Aristoteles stelde beroemd dat het onderwijzen van de geest zonder het onderwijzen van het hart helemaal geen onderwijs is.

Je zou die verhelderende opmerking kunnen interpreteren als de suggestie dat leren over ethiek en moreel gedrag van cruciaal belang is voor de mensheid. In het klassieke nature versus nurture-debat moet men zich afvragen hoeveel van onze ethische mores instinctief aangeboren zijn, terwijl hoeveel er in de loop van ons leven wordt geleerd. Peuters observeren medemensen en verzamelen vermoedelijk hun ethische grondslagen op basis van wat ze zien en horen. Hetzelfde kan gezegd worden van tieners. Voor volwassenen met een open geest zullen ook zij zich blijven aanpassen en vooruitgang boeken in hun ethisch denken als gevolg van het ervaren van de wereld van alledag.

Iemand expliciet iets leren over ethiek hoort er natuurlijk ook bij. Mensen zullen ongetwijfeld over ethische manieren leren door lessen over het onderwerp bij te wonen of misschien door naar evenementen en praktijken te gaan die voor hen interessant zijn. Ethische waarden kunnen duidelijk worden geïdentificeerd en gedeeld als een middel om anderen te helpen bij het formuleren van hun eigen ethische structuur. Bovendien kan ethiek op subtiele wijze verborgen zijn in verhalen of andere vormen van instructie die uiteindelijk een boodschap overbrengen van waaruit ethisch gedrag bestaat.

Dat is hoe mensen ethiek lijken te doordringen.

Hoe zit het met kunstmatige intelligentie (AI)?

Ik realiseer me dat zo'n vraag vreemd kan lijken. We verwachten zeker dat mensen ethiek opnemen en door het leven gaan met een schijn van morele code. Het is een eenvoudig en duidelijk feit. Aan de andere kant lijkt een machine of computer niet in datzelfde referentiekader te passen. Je instinctieve reactie zou kunnen zijn dat het vergezocht of bizar is om AI te beschouwen als een belichaming van ethische en morele codes.

Het beste dat we aan AI lijken te kunnen doen, is het zo bedenken dat het niet afwijkt van ethisch gedrag. AI-ontwikkelaars en degenen die AI uitvoeren, moeten verantwoordelijk worden gehouden om ervoor te zorgen dat de AI, zoals ontworpen en geïmplementeerd, al in overeenstemming is met ethische voorschriften. Uit de poort, om zo te zeggen, zou de AI al ongerept moeten zijn en klaar om te gaan als een volledig ethisch juiste uitvinding.

U zou zeker gelijk hebben als u denkt dat AI-systemen inderdaad zo moeten worden gemaakt dat ze al volledig binnen een ethische basis passen. De samenleving was behoorlijk opgewonden toen de nieuwste golf van AI-systemen voor het eerst werd uitgebracht en leek aan te tonen dat we ons in een tijdperk van AI voorgoed. AI zou helpen bij het oplossen van veel van 's werelds meest uitdagende problemen. Vooruitgang in de technologie werd aangewend om menselijke capaciteiten aan te vullen met cognitief-achtige faciliteiten, maar sta me toe te benadrukken dat we nog geen bewuste AI hebben en we weten niet of bewuste AI zal worden bereikt.

Het probleem met de onstuimige haast om AI de wereld in te krijgen, heeft geleidelijk aan de lelijke onderbuik van AI onthuld die bekend staat als AI voor slecht. Er zijn veel krantenkoppen geweest over AI-systemen die gebruik maken van algoritmische besluitvorming (ADM) die vol zit met vooroordelen en ongelijkheden. Bovendien lijdt een groot deel van de hedendaagse AI aan een gebrek aan transparantie, is het vaak onverklaarbaar in termen van het uitleggen van computerbeslissingen, vertoont het vaak een gebrek aan eerlijkheid en heeft het sommigen in staat gesteld hun menselijke verantwoordelijkheid af te leiden door met de vinger naar AI te wijzen.

Ik heb uitgebreid aandacht besteed aan ethische AI ​​en de ethiek van AI in mijn geschriften, waaronder de link hier en de link hier, om er een paar te noemen.

Hoe kan het zijn AI voor slecht als we aannemen dat AI vanaf het begin moet worden gemaakt om onethische acties te voorkomen?

Het antwoord is meervoudig.

Ten eerste hebben veel AI-ontwikkelaars en bedrijven die zich bezighouden met AI zelf geen idee hoe belangrijk het is om hun AI zo vorm te geven dat ze binnen ethische grenzen blijven. Het concept staat helemaal niet op hun radar. De aantrekkingskracht van snel geld verdienen zorgt ervoor dat sommigen doorgaan met de wilde AI-ideeën die ze moedwillig willen produceren. Het is niet nodig om ethische dingen uit te zoeken. Bouw gewoon de AI en ga ermee aan de slag.

Ten tweede zijn er mensen die AI maken die een regelrecht bewustzijn van de ethische gevolgen verfraaien, maar die de ethische AI-overwegingen openlijk bagatelliseren of enigszins negeren. Een gemeenschappelijk perspectief is de klassieke mantra van techneuten om snel te falen en vaak te falen. Blijf gewoon herhalen totdat de zaken hopelijk op de juiste manier zijn geregeld. De kansen om een ​​systematische en doordachte integratie van AI-ethiek in die snelle AI-inspanningen te persen, zijn helaas klein. Ik bespreek de noodzaak van empowerment van leiderschap in de richting van ethische AI ​​op de link hier.

Ten derde bestaat er veel onduidelijkheid over welke ethische vangrails moeten worden gebruikt bij het bedenken van AI. Zeker, er zijn tegenwoordig veel AI-ethische richtlijnen, zie mijn berichtgeving op de link hier, hoewel het moeilijk is om deze handige theoretische voorschriften noodzakelijkerwijs om te zetten in details voor een bepaald AI-systeem dat wordt gebouwd. Ik heb aangegeven dat we langzaamaan een opkomst zullen zien van AI-bouwtools en -methodologieën die ethische AI-coderingspraktijken omvatten, waardoor de kloof tussen de abstracte aspecten en de spreekwoordelijke rubber-meets-the-road-facetten wordt gedicht.

Ten vierde onderzoeken we, volgens de nadruk hierin, het getroffen geval van AI dat, zelfs als het aanvankelijk binnen ethische grenzen is samengesteld, vervolgens tijdens gebruik verder kronkelt dan de veronderstelde ethisch gecodeerde parameters.

Dat moeten we uitpakken.

Veel van de huidige AI maakt gebruik van Machine Learning (ML) en Deep Learning (DL). Dit zijn computationele patroonvergelijkingstechnieken en -technologieën. Over het algemeen is het idee dat je veel relevante gegevens verzamelt voor wat de AI ook zou moeten kunnen, je voert die gegevens in de gekozen computationele patroonvergelijker en de patroonvergelijking probeert wiskundig bruikbare patronen te vinden. Merk op dat er geen gevoel is van de kant van deze AI (wat, nogmaals, zoiets nog niet bestaat). Er is ook geen sprake van gezond verstand. Het is allemaal wiskunde en berekeningen.

Het kan zijn dat de gegevens die in de ML/DL worden ingevoerd al doordrenkt zijn met vooroordelen en ongelijkheden. In dat geval is de kans groot dat de computationele patroonvergelijking slechts dezelfde neigingen zal nabootsen. Als u gegevens verstrekt die het ene ras bevoordelen boven het andere of het ene geslacht bevoordeelt boven het andere, is de kans groot dat de patroonovereenkomst daarop aansluit als het ontdekte patroon.

Een groot probleem met dat soort vergrendeling is dat het moeilijk kan zijn om uit te maken dat de patronen op dat aspect van de gegevens zijn gebaseerd. De netelige en complexe wiskunde kan het aan de oppervlakte brengen van dergelijke gevonden patronen behoorlijk problematisch maken. Zelfs het testen van de AI zal die neigingen niet noodzakelijkerwijs onthullen, afhankelijk van het bereik en de diepte van de tests die worden toegepast.

Laten we dus aannemen dat je een AI-systeem hebt gebouwd en je huiswerk hebt gedaan door eerst te proberen gegevens te vermijden die al bestaande vooroordelen hadden. Vervolgens, nadat de Machine Learning en Deep Learning waren uitgevoerd, testte u de resultaten om te zien of er op de een of andere manier vooroordelen of ongelijkheden waren ontstaan. Laten we aannemen dat u dergelijke ongewenste neigingen niet kunt vinden.

Alles bij elkaar wordt nu groen licht gegeven om door te gaan en de AI in gebruik te nemen. Mensen zullen de AI gaan gebruiken en waarschijnlijk aannemen dat het ethisch verantwoord is. Dat vinden de ontwikkelaars ook. Het bedrijf dat de AI afhandelt, denkt dit. Weg gaan we allemaal.

Dit is wat er kan gebeuren.

Een vermoeden van een vooringenomenheid die niet in de oorspronkelijke gegevens werd gevonden en die niet werd opgemerkt tijdens het testen van de AI, wordt mogelijk geactiveerd. Misschien gebeurt dit maar zelden. Je zou kunnen geloven dat zolang het zeldzaam is, alles in orde is. Ik betwijfel echter of degenen die kwetsbaar zijn voor de genoemde vooringenomenheid bereid zijn de dingen zo te zien. Ik durf te zeggen dat het AI-systeem en degenen die het hebben geformuleerd, met repercussies te maken zullen krijgen, hetzij in de rechtbanken, hetzij in de openbare rechtbank van de maatschappelijke opinie.

Een andere variatie is het spreekwoordelijke idee van het nemen van een centimeter en het grijpen van een mijl. Het vermoeden kan in eerste instantie klein zijn. Tijdens het gebruik van de AI is de AI mogelijk bedacht om zichzelf gaandeweg te veranderen. Dit soort "leren" of "zelfleren" kan heel nuttig zijn. In plaats van van menselijke AI-ontwikkelaars te eisen dat ze het AI-systeem voortdurend wijzigen en aanpassen, is de AI gebouwd om dit zelf te doen. Geen vertragingen, geen dure arbeid etc.

Het nadeel van deze handige zelfaanpassing is dat de inkling kan worden verheven tot steeds groter binnen het bereik van gebruik door de AI. Waar de bias misschien in een krap hoekje zat, krijgt het nu de ruimte om uit te breiden. De AI heeft niet de schijn dat dit "fout" is en breidt alleen rekenkundig iets uit dat lijkt te werken.

Als dat het haar op je hoofd doet staan, moet je gaan zitten voor de volgende variant.

Stel dat de vooringenomenheid vanaf het begin niet bestond en we hebben alle beredeneerde overtuiging dat de AI volledig vrij van vooringenomenheid is. We hebben geluk gehad of hebben er misschien systematisch voor gezorgd dat er geen vooroordelen in de gegevens waren en dat er geen ontstond via de computationele patroonvergelijking. Ondanks die zucht van verlichting mag de AI zich aanpassen tijdens gebruik. De deur van Pandora wordt geopend en de AI kiest ervoor om computationeel te neigen naar vooroordelen die worden gevonden tijdens wat de AI ook doet.

Een hernieuwde vooringenomenheid wordt opgeslokt door de AI, en niemand is echt wijzer dat het is gebeurd. Jakkes, we hebben een monster gemaakt, een echte Frankenstein.

Hoe kan deze opkomst mogelijk worden voorkomen of op zijn minst worden gesignaleerd?

Een aanpak die aan populariteit wint, bestaat erin om in de AI een component voor het verzamelen van ethiek in te bouwen. De AI is geconstrueerd om ethische AI-elementen te bevatten. Die elementen bekijken of monitoren vervolgens de rest van de AI terwijl de AI zich in de loop van de tijd aanpast. Wanneer de AI verder lijkt te zijn gegaan dan de geprogrammeerde ethische voorschriften, probeert de ethische AI ​​die aanpassingen door te voeren of waarschuwt de ontwikkelaars dat er iets mis is gegaan.

U kunt proberen deze ethische AI ​​te programmeren om toezicht te houden op de capaciteit en hopen dat deze zal zegevieren terwijl de AI in gebruik is.

Een andere enigszins controversiële invalshoek zou zijn om Machine Learning en Deep Learning te gebruiken om de ethische AI-aspecten in het AI-systeem te trainen.

Wat zeg je?

Ja, het misschien onorthodoxe concept is dat in plaats van dat een menselijke programmeur rechtstreeks een reeks AI-ethische voorschriften codeert, de AI is gevormd om ze in plaats daarvan te proberen te 'leren'. Bedenk dat ik kort heb opgemerkt dat het gebruik van ML/DL doorgaans afhankelijk is van het invoeren van gegevens in de algoritmen en dat er een computationele patroonvergelijking plaatsvindt. De vraag van een miljoen dollar is of we hetzelfde mechanisme kunnen gebruiken om ethische waarden in een AI-systeem te doordringen.

Ik veronderstel dat je dit zou kunnen vergelijken met mijn discussie bij de opening over hoe mensen zich bewust worden van ethische principes, hoewel je de huidige AI alsjeblieft niet antropomorfiseert als vergelijkbaar met menselijk denken (dat is het niet, en ik zal die aansporing binnenkort herhalen). De AI kan "aangeboren" worden geprogrammeerd met ethische AI-voorschriften. Of de AI kan ethische AI-voorschriften 'leren'. Je kunt natuurlijk beide doen, iets wat ik elders heb behandeld, zie je de link hier.

Neem even de tijd om na te denken over het ogenschijnlijk verrassende concept dat AI ethiek zou kunnen 'leren' en zich dus vermoedelijk aan ethisch gedrag zou houden.

Deze onderzoekers gebruiken een voorbeeld van een AI-systeem dat de gewenste temperatuur in een huis berekent om te illustreren hoe dat kan werken: “Het 'observeerde' eerst een week lang het gedrag van de mensen in verschillende huishoudens en trok daaruit conclusies over hun voorkeuren. Vervolgens gebruikte het een bewegingsdetectiesensor om te bepalen of er iemand thuis was. Toen het huis leeg was, ging de slimme thermostaat in een hoge energiebesparende stand; als mensen thuis waren, paste de thermostaat de temperatuur aan hun voorkeuren aan. Deze thermostaat voldoet duidelijk aan de twee vereisten van een ethiekbot, zij het een heel eenvoudige. Het beoordeelt de voorkeuren van mensen en legt deze op aan de regelingen van het verwarmings- en koelsysteem. Men kan zich afvragen wat dit te maken heeft met sociaal-morele waarden. Deze thermostaat stelt mensen met verschillende waarden in staat om de gewenste temperatuurinstellingen te hebben. De bewoners van de woning hoeven niet elke dag de thermostaat opnieuw in te stellen bij het komen en gaan. Deze eenvoudige ethische bot verkleint ook de totale energievoetafdruk van de gemeenschap” (volgens de paper van Amitai Etzioni en Oren Etzioni getiteld “AI Assisted Ethics” in het boek op Ethiek en informatietechnologie).

Voordat ik verder inga op de wendingen van AI die ethisch gedrag 'leert', wil ik iets meer zeggen over de status van AI.

AI kan uit deze mogelijke toestanden bestaan:

1. Niet-bewuste, gewone AI van vandaag

2. Sentient AI van menselijke kwaliteit (die hebben we nog niet)

3. Sentient AI die superintelligent is (een stuk verder dan #2)

Ik ga me concentreren op de bestaande staat die niet-bewuste, gewone AI is. Veel van wat je zou kunnen lezen over ethische AI ​​gaat soms over bewuste AI en is daarom zeer speculatief. Ik zeg dat het speculatief is, omdat niemand kan voorspellen wat bewuste AI zal zijn. Nog verder dan het domein van menselijke kwaliteit, is de bewuste AI de veelbesproken superintelligente AI. Er zijn veel scifi-verhalen en twijfels over hoe die smaken van AI zouden kunnen besluiten om de mensheid tot slaaf te maken, of misschien om ons allemaal uit te roeien. Dit staat bekend als het existentiële risico van AI. Soms wordt het dilemma ook wel omschreven als het catastrofale risico van AI.

Sommigen beweren dat we misschien in orde zijn zolang we AI houden aan de niet-bewuste, gewone AI die we vandaag hebben. Laten we aannemen dat we bewuste AI niet kunnen bereiken. Stel je voor dat hoe hard we ook proberen om bewuste AI te maken, we er niet in slagen. Neem ter wille van de discussie ook aan dat bewuste AI niet ontstaat door een of ander mysterieus spontaan proces.

Zijn we er dan niet zeker van dat deze AI van minder kaliber, de enige denkbare vorm van AI, in gebruik zal zijn?

Niet echt.

Vrijwel dezelfde algemene problemen zullen zich waarschijnlijk voordoen. Ik suggereer niet dat de AI zijn weg "denkt" om ons te willen vernietigen. Nee, de gewone niet-bewuste AI wordt alleen maar in machtsposities geplaatst die ons verstrikken in zelfvernietiging. We stoppen bijvoorbeeld niet-bewuste AI in massavernietigingswapens. Deze autonome wapens kunnen niet denken. Tegelijkertijd worden mensen niet volledig op de hoogte gehouden. Als gevolg hiervan veroorzaakt de AI als een vorm van autonome automatisering onbedoeld catastrofale resultaten, hetzij door een menselijk commando om dit te doen, hetzij door een bug of fout, hetzij door geïmplanteerd kwaaddoen, hetzij door zelfaanpassingen die de zaken op dat lelijke pad leiden, enz.

Ik zou beweren dat het AI-ethiekprobleem bestaat voor alle drie de door AI bepaalde staten, namelijk dat we AI-ethische problemen hebben met niet-bewuste gewone AI, en met bewuste AI die ofwel louter menselijk niveau is of de uitgestrekte AI die het veelgeprezen superintelligentieniveau bereikt.

Gezien die ontnuchterende uitspraak, kunnen we zeker debatteren over de omvang en moeilijkheid die samenhangen met de ethische problemen op elk van de respectieve AI-niveaus. Het gebruikelijke standpunt is dat de AI-ethische hachelijke situatie minder onoverkomelijk is bij de niet-bewuste AI, moeilijker op het bewuste mens-gelijke AI-niveau, en een echte head-scratcher in de bewuste superintelligente AI-fase van zaken.

Hoe beter de AI wordt, hoe erger het AI-ethische probleem wordt.

Misschien is dat wel een onschendbare natuurwet.

Terugkomend op de huidige AI: proberen om AI ethisch gedrag te laten 'leren' via hedendaagse machine learning en deep learning, is beladen met zorgen en lastige problemen. Stel dat de AI er niet in slaagt de gewenste ethische voorschriften te verzamelen? Hoe zullen we zeker weten dat het daarbij haperde? Zullen andere delen van een AI-systeem mogelijk de verzamelde ethische constructies terzijde schuiven? Voeg daarbij dat als de AI zich on the fly aanpast, de aanpassingen de ethische aspecten kunnen afzwakken of ze onbedoeld helemaal kunnen overweldigen.

Om de zaken nog erger te maken, kan het "leren" ertoe leiden dat de AI op echt onethisch gedrag terechtkomt. Terwijl we dachten dat we het juiste deden door de AI ertoe aan te zetten ethisch te zijn, blijkt dat de AI in plaats daarvan is afgegleden naar patroonafstemming op de onethische aspecten. Over in onze eigen voet schieten gesproken, het zou absoluut kunnen gebeuren.

Op dit moment van deze discussie durf ik te wedden dat u nog meer praktijkvoorbeelden wenst die zouden kunnen benadrukken hoe AI, het 'leren' van ethiek, van toepassing zou kunnen zijn op de hedendaagse AI (afgezien van de smakelijke teaser van het voorbeeld van de thermostaat).

Ik ben blij dat je het vraagt.

Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Belicht de komst van op AI gebaseerde, echt zelfrijdende auto's iets over het vermogen van de AI om ethische AI-voorschriften te 'leren', en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarvan de AI de auto volledig alleen bestuurt en dat er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, waarvan we nog niet eens weten of dit mogelijk zal zijn en hoe lang het duurt om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en ethische AI-inenting

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te nemen in zelfrijdende auto's en ethische AI-mogelijkheden, met de wenkbrauwverhogende bewering dat we AI zelf kunnen laten 'leren' over ethisch gedrag.

Laten we een eenvoudig duidelijk voorbeeld gebruiken. Een op AI gebaseerde zelfrijdende auto is onderweg in de straten van uw buurt en lijkt veilig te rijden. In het begin had je speciale aandacht voor elke keer dat je een glimp van de zelfrijdende auto op kon vangen. Het autonome voertuig viel op door zijn rek met elektronische sensoren, waaronder videocamera's, radareenheden, LIDAR-apparaten en dergelijke. Na vele weken van de zelfrijdende auto die door je gemeente toert, merk je er nu amper iets van. Het is wat jou betreft niet meer dan een auto op de toch al drukke openbare weg.

Voor het geval je denkt dat het onmogelijk of ongeloofwaardig is om vertrouwd te raken met het zien van zelfrijdende auto's, heb ik vaak geschreven over hoe de locaties die binnen het bereik van zelfrijdende auto-experimenten vallen, geleidelijk gewend zijn geraakt aan het zien van de opgeknapte voertuigen, zie mijn analyse op deze link hier. Veel van de lokale bevolking veranderden uiteindelijk van mond-gapend rapt gapen naar nu een uitgestrekte geeuw van verveling uitstoten om getuige te zijn van die meanderende zelfrijdende auto's.

Waarschijnlijk de belangrijkste reden op dit moment dat ze de autonome voertuigen opmerken, is vanwege de irritatie- en ergernisfactor. De by-the-book AI-rijsystemen zorgen ervoor dat de auto's zich houden aan alle snelheidslimieten en verkeersregels. Voor hectische menselijke chauffeurs in hun traditionele door mensen bestuurde auto's, raak je soms geïrriteerd als je vastzit achter de strikt gezagsgetrouwe, op AI gebaseerde zelfrijdende auto's.

Dat is iets waar we misschien allemaal, terecht of onterecht, aan moeten wennen.

Terug naar ons verhaal. Stel dat er op een dag een zelfrijdende auto in uw dorp of stad rijdt en een situatie tegenkomt waarin een voetganger wacht om de weg over te steken. Stel dat de voetganger niet per se voorrang heeft. Een door mensen aangedreven auto zou de voetganger kunnen passeren en daarbij volledig legaal zijn. Evenzo is het AI-aandrijfsysteem wettelijk in staat om langs de wachtende voetganger te gaan.

De beslissing om te stoppen en de voetganger de straat over te laten gaan, is geheel naar eigen goeddunken van de bestuurder, ongeacht of hij een menselijke bestuurder is of een AI-aandrijfsysteem.

Ik weet zeker dat je dit soort situaties al talloze keren bent tegengekomen. Misschien heb je haast en stop je niet om de voetganger over te laten steken. Een andere keer heb je ruim de tijd om op je bestemming te komen, dus kies je ervoor om te stoppen en de wachtende persoon de straat over te laten lopen. Je stemming en de specifieke omstandigheden bepalen wat je gaat doen.

Niets aan dit scenario lijkt ongewoon of irritant.

Voordat ik de AI-kant van de dingen onderzoek, is het misschien interessant om te weten dat dit specifieke aspect van discretie waardoor een voetganger een straat kan oversteken, nauwkeurig is bestudeerd. Onderzoekers hebben vastgesteld dat de keuze van de bestuurder soms afhangt van raciale of gendervooroordelen. Een menselijke bestuurder kan de wachtende voetganger opmeten en ervoor kiezen om de persoon te laten oversteken, schijnbaar op basis van de inherente vooroordelen van de bestuurder. Of de bestuurder zich realiseert dat hij dit doet, is een kwestie van lopend onderzoek. Zie mijn berichtgeving op deze link hier.

Ik heb de weg geëffend voor ons onderzoek naar wat een AI-aandrijfsysteem zou kunnen doen bij het oversteken van voetgangers.

Conventionele programmering van de AI kan ertoe leiden dat de AI-ontwikkelaars besluiten om het AI-aandrijfsysteem altijd tot stilstand te laten komen en de voetganger te laten oversteken. Dit lijkt ethisch correct of burgerlijk te zijn. De zelfrijdende auto wijkt uit naar de wachtende mens die de straat wil oversteken.

Ik durf te zeggen dat als je een passagier in een zelfrijdende auto was en de AI altijd stopte voor alle discretionaire wachtende voetgangers, je misschien gek zou worden. Uw snelle trip naar de supermarkt kan vele malen langer duren. Onthoud ook dat we het niet hebben over voetgangers die het vrome wettelijke voorrang hebben om over te steken, aangezien in die gevallen de AI waarschijnlijk al geprogrammeerd is om altijd toe te staan. We richten ons alleen op de discretionaire omstandigheden.

Er zijn meer nadelen aan deze verklaring om altijd te stoppen om discretionaire voetgangers de straat over te laten steken.

Degenen die op AI gebaseerde zelfrijdende auto's maken en in de praktijk brengen, willen dat mensen erin rijden. Het idee is dat we door zelfrijdende auto's te hebben, het aantal jaarlijkse auto-ongelukken kunnen verminderen, die momenteel alleen al in de Verenigde Staten ongeveer 40,000 dodelijke slachtoffers en 2.5 miljoen gewonden veroorzaken. Zie mijn verzameling statistieken op deze link hier. Naast dit gerespecteerde maatschappelijke doel hopen de autofabrikanten en zelfrijdende technologiemakers natuurlijk ook geld te verdienen aan hun AI-creaties.

Ik breng dit naar voren omdat mensen zouden kunnen besluiten om niet in zelfrijdende auto's te rijden als het AI-aandrijfsysteem dat doet onnodig uiteindelijk reizen vertragen. Elke gewone mens zou redeneren dat door in plaats daarvan een menselijke bestuurder te kiezen, de reis sneller zou kunnen zijn, en ergo dat het selecteren van een zelfrijdende AI-auto voor een reis erg laag op de lijst met keuzes zou kunnen komen te staan. Dit zou op zijn beurt betekenen dat we niet de gewenste vermindering van het aantal auto-ongelukken zouden hebben en ook dat de makers hun waren potentieel onrendabel zouden vinden.

Gezien die reeks argumenten, zou je kunnen denken dat de AI nooit mag stoppen wanneer een discretionaire instantie van een voetganger die de straat wil oversteken zich voordoet. Programmeer gewoon het AI-aandrijfsysteem om te doen wat strikt legaal is. Als er geen wettelijke verplichting is om een ​​voetganger over te laten steken, dan heb je pech voor die wachtende voetganger. Misschien moet de persoon zich een weg banen naar een kruispunt dat wel een wettelijke basis biedt voor de AI om de zelfrijdende auto te stoppen.

Kunt u zich de verontwaardiging hierover voorstellen?

Mensen in uw dorp of stad ontdekken gaandeweg dat zelfrijdende auto's met kunstmatige intelligentie nooit een willekeurige voetganger zullen laten oversteken. Die verdomde opvliegende AI! Het is alsof de AI zijn neus op mensen richt. Een ongemanierde snotaap van een stuk niet-goede automatisering. Als klap op de vuurpijl, stel je voor dat er gedocumenteerde omstandigheden zijn van voetgangers die wanhopig moeten oversteken en dat de AI helemaal niet zou stoppen.

Ondertussen stopten menselijke chauffeurs gewillig om die "wanhopige" mensen veilig over te laten steken.

Als gevolg van deze verontwaardiging zijn AI-zelfrijdende auto's niet langer welkom in de straten en zijwegen van uw land. Vergunningen die waren afgegeven door de stadsleiders worden ingetrokken. De ondankbare bruten van onze wegen halen is het vocale geschreeuw.

Oké, we lijken tussen een rots en een harde plek te zitten. De AI moet de discretionaire voetganger niet altijd laten oversteken (niet altijd stoppen). De AI moet niet altijd voorkomen dat een willekeurige voetganger oversteekt (zoom niet altijd voorbij). Wat moeten we doen?

Het voor de hand liggende antwoord zou zijn om de AI te programmeren om op een discretionaire manier te handelen.

Ik vraag u na te denken over de ADM (algoritmische besluitvorming) waaruit dit zou moeten bestaan. Zal de AI proberen de aard van de voetganger te detecteren en de waargenomen kenmerken gebruiken als basis om te beslissen of de zelfrijdende auto moet stoppen of niet? Misschien is iemand die er ouder uitziet de juiste keuze. Maar is die leeftijdsdiscriminatie in de maak? Enzovoort.

Misschien is het AI-aandrijfsysteem geprogrammeerd om overdag te stoppen en nooit 's nachts te stoppen. De logica is mogelijk dat het voor de berijders van de zelfrijdende auto veiliger wordt verondersteld dat het autonome voertuig overdag tot stilstand komt, maar niet op de loerere uren van de avond.

Dat klinkt misschien verstandig. Een deel van het probleem zullen de verwachtingen van voetgangers zijn. Dit is wat ik bedoel. Voetgangers zien de AI zelfrijdende auto's stoppen voor discretionaire oversteekplaatsen, die bij daglicht plaatsvinden. De voetgangers weten niet welke criteria de AI gebruikt om te besluiten te stoppen. De veronderstelling van sommige voetgangers is dat de AI altijd zal stoppen (niet beseffend dat daglicht versus nacht de echte bepalende factor is). Als gevolg hiervan zullen die voetgangers die denken dat de zelfrijdende auto altijd zal stoppen, een kans wagen en beginnen over te steken wanneer het AI-aandrijfsysteem helemaal niet van plan is te stoppen (wat de AI waarschijnlijk tot stilstand zou brengen als de voetganger de straat op gaat, hoewel dit onvoorspelbaar kan zijn en de fysica zou kunnen voorkomen dat de AI de zelfrijdende auto onvoldoende tijd stopt om te voorkomen dat hij de schijnbaar "dwalende" voetganger raakt).

Stel dat de AI-ontwikkelaars en de bedrijven die de zelfrijdende auto's in uw stad samenstellen en in gebruik nemen, niet zeker weten hoe ze de AI op de hoogte kunnen krijgen van deze kwestie.

Ze besluiten de AI te "trainen" op gegevens die overal ter wereld zijn verzameld. Blijkt dat er tal van in de stad gemonteerde camera's zijn die het komen en gaan van auto's in de hele township hebben vastgelegd. Deze gegevens tonen veel voorbeelden van voetgangers die op een discretionaire manier de straat willen oversteken. Alle gegevens worden ingevoerd in een machine learning- en deep learning-systeem om af te leiden wat in dat rechtsgebied als gebruikelijk wordt beschouwd.

Trainen we de AI om te doen wat de lokale ethische moraal laat zien?

Met andere woorden, als een bepaalde stad een lokale culturele neiging had om te stoppen en discretionaire voetgangers te laten oversteken, zoals blijkt uit acties van menselijke bestuurders, zou de ML / DL dit patroon mogelijk computationeel oppikken. De AI zou dan worden getraind om hetzelfde te doen. Aan het andere uiterste, als de menselijke chauffeurs zelden stoppen, zou de AI die "les" mogelijk kunnen halen uit het computationeel analyseren van de gegevens. De AI zal doen wat mensen doen, min of meer.

De bewering is dat het ethische gedrag van mensen wordt vastgelegd in de gegevens en dat de AI diezelfde ethische voorschriften gaat doordringen door computationele analyse. Een ethicus zou dit over het algemeen omschrijven als een communistische benadering van ethiek. De gedeelde waarden van de gemeenschap worden weerspiegeld in de inspanningen van de gemeenschap als geheel.

Dit lijkt misschien een elegante oplossing.

Helaas zijn er veel valkuilen.

Een misschien voor de hand liggend probleem is dat de menselijke chauffeurs misschien al een of andere vorm van vooroordelen uitoefenen bij het kiezen om te stoppen of niet te stoppen (zoals eerder vermeld). De AI zal dan een copycat zijn van deze vooroordelen. Willen we dat dat zo is?

Overweeg een ander probleem. Stel dat menselijke chauffeurs niet snel accepteren hoe de AI-zelfrijdende auto's werken. Alleen omdat menselijke bestuurders, laten we zeggen, bereid waren om te stoppen, wordt dit misschien niet in dezelfde mate aangenomen voor zelfrijdende auto's. Het kan zijn dat menselijke chauffeurs geïrriteerd raken door de AI-zelfrijdende auto's die blijven stoppen voor discretionaire voetgangers, ook al gebeurt hetzelfde door de handen van menselijke chauffeurs, maar dat lijkt menselijke chauffeurs niet te storen.

Behalve dat het verontrustend is, kun je ook de mogelijkheid oproepen dat menselijke bestuurders per ongeluk zelfrijdende auto's achterop rijden. Als een menselijke bestuurder niet verwachtte dat de zelfrijdende auto zou stoppen voor een voetganger, en als de door mensen bestuurde auto direct achter de zelfrijdende auto rijdt, kan er een grote discrepantie tussen de verwachtingen ontstaan. Het AI-aandrijfsysteem brengt de zelfrijdende auto tot stilstand. De menselijke bestuurder had deze actie niet voorzien. De menselijke bestuurder botst tegen de zelfrijdende auto. Verwondingen en mogelijk dodelijke slachtoffers zijn het gevolg.

Ik heb met opzet gewezen op de kans op menselijk letsel.

De overstekende voetganger lijkt op het eerste gezicht misschien een triviale vraag. Het lijkt erop dat niemand gewond kan raken door welke methode de AI ook kiest om te stoppen of niet te stoppen. Fout! De kans bestaat dat de voetganger wordt overreden. De kans bestaat dat een door mensen aangedreven auto de zelfrijdende auto inrijdt. De bestuurder en passagiers van de door mensen aangedreven auto kunnen gewond raken. De inzittenden van de zelfrijdende auto kunnen gewond raken. Aanvullende permutaties van mogelijk menselijk letsel zijn gemakkelijk te bedenken.

Conclusie

Over menselijke schade gesproken, ik zal je iets anders geven om je gedachten te laten kolken over dit Ethische AI-raadsel.

Een nieuwsbericht meldde dat een man met een auto een kruispunt opreed en daarvoor groen licht had. Een andere door mensen aangedreven auto koos ervoor om door het rode licht van de kruising te rijden en ging illegaal en onveilig ongehinderd de kruising op, waarbij hij dreigde de legaal rijdende auto te raken.

De bestuurder vertelde verslaggevers dat hij moest kiezen tussen de klap opvangen, of hij kon zijn auto laten zwenken om hopelijk te voorkomen dat hij werd geraakt, maar er waren voetgangers in de buurt en de zwenkende actie zou die mensen in gevaar kunnen brengen. Wat zou jij doen? Je kunt ervoor kiezen om aangereden te worden door deze dreigende auto en misschien leven om het verhaal te vertellen. Of je kunt proberen te voorkomen dat je geraakt wordt, maar ondertussen mogelijk onschuldige voetgangers aanrijdt.

Veel van ons dagelijks autorijden heeft dat soort ethisch enorme en onmiddellijke beslissingen die moeten worden genomen. Ik heb dit uitvoerig besproken, samen met het in verband brengen van deze beslissingen op leven of dood met het beroemde of sommigen zeggen beruchte Trolley-probleem, zie mijn uitwerking op de link hier.

Vervang in dit scenario de menselijke bestuurder door een AI-aandrijfsysteem.

Wat wil je dat de AI doet?

Dat is een verwarrende vraag.

Een benadering is om de AI zo te programmeren dat hij puur rechtuit rijdt, dus niet eens computationeel rekening houdt met andere opties, zoals wegdraaien van de waarschijnlijke crash. Ik verwacht dat rijders in zelfrijdende auto's boos zullen zijn als ze erachter komen dat de AI niet is bedacht om iets anders te doen dan de klap op te vangen. U kunt rechtszaken en opschudding verwachten.

Een andere benadering zou zijn om te proberen de AI te programmeren om de verschillende mogelijkheden te overwegen. Wie mag echter de ADM opzetten die beslist welke kant het AI-aandrijfsysteem op zou gaan? Het lijkt erop dat het veel zorgen baart om AI-ontwikkelaars zelf zulke gewichtige beslissingen te laten nemen.

Je zou kunnen proberen de AI te laten "leren" van menselijke rijgegevens die zijn verzameld door dagelijkse verkeerssituaties. Dit is verwant aan het dilemma van de voetgangersoversteekplaats en het eerder gesuggereerde idee om verzamelde gegevens te gebruiken om de AI te laten verzamelen wat de lokale ethische mores ook leken te zijn. Daar zijn veel kanttekeningen bij, bijvoorbeeld of de door ML/DL ontdekte patronen geschikt zijn of niet, enz.

Ik had ook gewaarschuwd dat de kans bestaat dat de AI mogelijk onethisch gedrag opspoort, afhankelijk van de ethische mores die ermee gemoeid zijn. Stel dat de AI op de een of andere manier op een computerpatroon is beland om altijd op de voetgangers te mikken wanneer een andere auto de zelfrijdende auto dreigde te raken.

Pas op voetgangers, jullie worden kant-en-klare doelwitten.

Tijd om de discussie voor nu af te sluiten en dat te doen met een bemoedigende slotgedachte.

U weet misschien dat Isaac Asimov zijn "Three Laws of Robotics" in 1950 voorstelde en tot op de dag van vandaag zijn we nog steeds gecharmeerd van die verkondigde regels. Hoewel de regels gemakkelijk te handhaven lijken, zoals dat een AI-systeem of robot een mens geen schade mag toebrengen en ook niet zal toestaan ​​dat een mens schade toebrengt, zijn er tal van cruciale nuances die dit complex en soms onhoudbaar maken, zie mijn analyse op de link hier.

In ieder geval is hier iets anders waar Asimov ook bekend om staat, zij het in mindere mate: "Laat je gevoel voor moraal nooit in de weg staan ​​om te doen wat juist is."

Voor de ethische AI ​​die we allemaal hopen te bedenken, moeten we in gedachten houden dat de doordrenkte AI-ethiek misschien niet is wat we hadden verwacht en dat de AI op de een of andere manier nog steeds moet doen wat goed is. Asimov zei het goed. Lang daarvoor leek Aristoteles soortgelijke gevoelens te hebben.

Bron: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as-the-case-with-ai-in-autonomous-self-driving-cars/