AI-ethiek die confronteert met de vraag of woedende mensen die AI gewelddadig verpletteren of mishandelen, alarmerend immoreel is, zoals die boze mensen die uithalen naar volledig autonome AI-systemen

Daarom kunnen we geen leuke dingen hebben.

Je hebt waarschijnlijk die vrij populaire uitdrukking gehoord of gezien en weet meteen waar het op zinspeelt. Geloof het of niet, het slimme stukje wijze wijsheid dateert schijnbaar terug tot minstens 1905 toen een soortgelijke bewoording verscheen in De humanitaire recensie door Eliza Blven. Over het algemeen is de kern van het inzicht dat we soms uiteindelijk objecten of artefacten verpletteren, bashen, breken of helemaal verpesten die het anders niet verdienen om zo behandeld te worden.

Je zou kunnen zeggen dat we soms mishandelen objecten en artefacten, zelfs degene die we zogenaamd hadden aanbeden of gekoesterd.

Dit kan per ongeluk gebeuren, zoals onvoorzichtigheid en je geliefde smartphone in de commode laten vallen (helaas is dit een van de meest genoemde manieren waarop smartphones onbruikbaar worden). Aan de andere kant, misschien in een vlaag van woede, kies je ervoor om je smartphone door de kamer te gooien en hij knalt tegen een fors meubel of ramt direct tegen een muur. De kans is groot dat het scherm zal barsten en de elektronische ingewanden niet langer goed zullen functioneren.

Die woedeaanval had op zich niets met de smartphone te maken kunnen hebben. Misschien had je ruzie met iemand en reageerde je toevallig op het punt dat je op dat moment misschien in je hand had. De smartphone was alleen op het verkeerde moment op de verkeerde plaats.

Er zijn echter gevallen waarin het object op de een of andere manier verband houdt met de woedende uitbarsting. Je zit bijvoorbeeld wanhopig te wachten op een belangrijk telefoontje en je smartphone doet het verrassend genoeg niet meer. Wat een frustratie! Deze verdomde smartphone lijkt altijd op de slechtste tijden op te geven, denk je bij jezelf. Welnu, de smartphone gaat betalen voor deze laatste overtreding door summier door de kamer te worden gegooid. Neem dat, jij geen goede smartphone.

Moet woede altijd een onderdeel zijn?

Misschien heb je rustig besloten dat je smartphone het einde van zijn nut heeft bereikt. Je krijgt een nieuwe. Zo heeft de bestaande smartphone een verminderde waarde. Je zou natuurlijk kunnen proberen om de ietwat verouderde smartphone in te ruilen, maar misschien maak je in plaats daarvan een bewuste keuze dat je liever wat plezier hebt en ziet hoeveel fysieke vernedering het kan kosten. Dus, na een doordachte hoeveelheid redenering, slinger je het apparaat met grote snelheid door de kamer en observeer je wat er gebeurt. Het is gewoon een soort natuurkundig experiment, waarmee je kunt meten hoe goed de smartphone is gebouwd.

Ik betwijfel of velen van ons dat soort zorgvuldig afgestemde logica gebruiken wanneer we onze agressie op een object of artefact afreageren. Vaker gebeurt de handeling waarschijnlijk binnen een andere gemoedstoestand. Dit lijkt een van die spontane, reactionaire acties te zijn. Naderhand zou je misschien spijt krijgen van wat je hebt gedaan en nadenken over wat tot zo'n uitbarsting heeft geleid.

Wat zegt dit soort felle optreden tegen een levenloos object ons mogelijk over de persoon die zo'n brutale en schijnbaar ongepaste actie onderneemt?

Het object zelf probeert je vermoedelijk niet met opzet te bevuilen. Wanneer uw broodrooster uw brood niet goed roostert, is het moeilijk voor te stellen dat de broodrooster die dag wakker werd met de gedachte dat hij uw ontbijt zal verknoeien door uw toast te verbranden. Dit is een beetje onwaarschijnlijk. De broodrooster is slechts een mechanisch apparaat. Het werkt of het werkt niet. Maar het idee dat de broodrooster van plan was om niet te werken of een snelle op je af te werken door tegen je wensen in te werken, nou, dat is een wijdverbreid idee.

Sommigen geloven dat alle objecten een schijn van karma of geest hebben. In die theorie veronderstelt men dat de broodrooster wraak zou kunnen nemen als je misschien niet eerder goed voor de broodrooster had gezorgd. Hoewel dat een interessant filosofisch idee is, sla ik die metafysische conceptualisering over en blijf bij de meer alledaagse veronderstelling dat objecten slechts objecten zijn (ter verduidelijking, ik bied geen beslissing aan over de andere mogelijkheid, ik leg het gewoon opzij voor het moment).

Deze zijdelingse raaklijn over karma of geest was waardig omdat het een verwant facet met betrekking tot menselijk gedrag naar voren brengt. Zie je, we zouden in de verleiding kunnen komen om een ​​vorm van levendigheid toe te schrijven aan objecten die dichter in de buurt komen van wat we over het algemeen beschouwen als voelend.

Een broodrooster van tien dollar dat een barebones-apparaat is, is nauwelijks iets dat we zouden kunnen zalven met een gevoelachtig aura. Je zou dat kunnen doen als je zou willen, maar dit is een rek. Je kunt net zo goed gevoel gaan toekennen aan allerlei objecten, zoals een stoel, een lichtmast, een brandkraan, enz. Het lijkt erop dat het object meer aangeboren vermogens zou moeten hebben als we "redelijkerwijs" een gevoel gaan toewijzen -achtige gloed op het ding.

Wanneer je Alexa of Siri gebruikt, is het apparaat zelf slechts een luidspreker en een microfoon, maar dit moderne gemak zou zeker een betere kandidaat kunnen zijn om voelende krachten toe te schrijven. Je kunt blijkbaar communiceren met het apparaat en een gesprek voeren, hoewel het weliswaar schokkerig is en de vloeiendheid van normale mensgerichte interacties mist. Desalniettemin is het een bijzonder gemak om Alexa of Siri toe te staan ​​​​naar een gevoel-achtige toewijsbaarheid te glippen (zie mijn indicatie van het recente geval van Alexa die advies gaf over het plaatsen van een cent in een werkend stopcontact, op deze link hier).

Stel dat we de broodrooster verfraaien met Natural Language Processing (NLP), verwant aan Alexa of Siri. U kunt tegen uw broodrooster praten en hem vertellen hoeveel van het gewenste roosteren u wilt. De broodrooster reageert op uw uiting en vertelt u vervolgens wanneer de toast klaar is. Dit lijkt onze overtuiging te herzien dat de broodrooster in feite dichter bij een gevoelsmatige capaciteit komt.

Hoe dichter we de kenmerken van een apparaat lijken te duwen in de richting van de kenmerken van menselijke faciliteiten, hoe meer we op het pad zouden komen om gevoelachtige eigenschappen aan het apparaat toe te schrijven. De meest voor de hand liggende hiervan zijn robots. Elke ultramoderne lopende en pratende robot roept ongetwijfeld onze innerlijke indruk op dat het apparaat meer is dan alleen een mechanisch of elektronisch apparaat.

Laat me je een vraag stellen en antwoord alsjeblieft eerlijk.

Voordat ik dat doe, vermoed ik dat je op de een of andere manier die virale video's hebt gezien met nogal mooie robots die kunnen lopen, kruipen, springen of rennen. In sommige van die video's staat een mens in de buurt en lijkt hij daar in eerste instantie klaar te staan ​​om de robot op te vangen als hij hapert. Ik durf te wedden dat de meesten van ons dat als een vriendelijke daad beschouwen, vergelijkbaar met wanneer een peuter leert lopen en er is om de jongere te vangen voordat ze hun hoofd op de grond slaan.

Je ziet echter zelden de mensen de robots vangen, en in plaats daarvan zie je de mensen de robots meppen om te zien wat de robot vervolgens zal doen. Soms wordt een lange stick gebruikt, bijvoorbeeld een hockeystick of een honkbalknuppel. De mens zal doelbewust en zonder enige schaamte de robot aanvallen. De robot krijgt een pak slaag, zou men kunnen beweren, en we wachten af ​​hoe de robot zal reageren.

Hier is je vraag.

Als je ziet dat de robot summier wordt geslagen, heb je dan medelijden met de robot?

Veel mensen doen dat. Toen dergelijke video's voor het eerst werden gepost, uitten duizenden reacties hun woede over de mishandeling van de robots. Wat heeft de robot gedaan om dit soort nadelige mishandeling te verdienen, vroegen mensen vurig? Die mensen zouden eruit gehaald moeten worden en zelf een paar schoppen moeten krijgen, zeiden sommigen verontwaardigd. Stop hiermee en verwijder dergelijke video's luidruchtig.

Je zou gemakkelijk hetzelfde kunnen voelen over een barebone-broodrooster van tien dollar, maar het zou waarschijnlijk niet dezelfde viscerale en schokkende zorgen oproepen. Het lijkt zo te zijn dat hoe dichter een object in een spectrum van het volledig levenloze object komt dat niet lijkt op menselijke capaciteiten ten opzichte van objecten die meer op het menselijk gevoel lijken, onze gevoelens zouden verstoren om menselijkheid-achtige moraliteit aan het object te willen toeschrijven .

Laten we dat verder uitpakken.

Als u een smartphone bezit en deze wilt breken, en als dat niemand anders schaadt, lijkt het erop dat we moreel weinig of geen bezwaar zouden hebben tegen een dergelijke handeling. Je bezit het, je kunt ermee doen wat je wilt (ervan uitgaande dat de handeling geen invloed heeft op anderen).

Natuurlijk kunnen we denken dat het dwaas van uw kant is, en dit kan een overloop hebben. Als je bereid bent je smartphone te vernietigen, wat zou je dan nog meer kunnen doen? Misschien is de destructieve en schijnbaar zinloze daad een waarschuwing van iets in jou van een veel slechter potentieel. In die manier van denken zijn we niet zo bezorgd over de smartphone als over hoe uw acties met betrekking tot de smartphone een weerspiegeling zijn van u en uw gedrag.

In het geval van de mensen die naar de lopende of kruipende robots porren en duwen, ben je waarschijnlijk opgelucht als je ontdekt dat die mensen experimentatoren zijn die worden betaald of anderszins professioneel de robots slaan om algemeen geldige redenen. Ze proberen te zien hoe goed de robot en de AI die aan de robot ten grondslag ligt, kunnen omgaan met storende gebeurtenissen.

Stel je voor dat iemand een AI-programma heeft geschreven om een ​​robot te helpen lopen of kruipen. Ze zouden logischerwijs willen weten hoe goed de AI het doet als de robot afdwaalt en ergens over struikelt. Kan de robot zichzelf balanceren of opnieuw balanceren als dat nodig is? Door mensen in de buurt te hebben, kunnen de robots worden getest door gepord of gepord te worden. Het is allemaal in naam van de wetenschap, zoals ze zeggen.

Als je eenmaal dat voorbehoud begrijpt waarom de mensen de robots "mishandelen", trek je waarschijnlijk je woede in. Je hebt misschien nog steeds een slepende scrupules, aangezien het zien van een mensachtige constructie die wordt geraakt, doet denken aan mensen of dieren die worden geraakt. Je weet echter dat de robot niets 'voelt', maar de acties zijn nog steeds enigszins persoonlijk pijnlijk om naar te kijken (voor meer inzichten over het gevoel van affiniteit dat mensen hebben met AI-systemen zoals robots, inclusief een fenomeen dat bekend staat als de griezelige vallei, zie mijn discussie op deze link hier).

Degenen op het gebied van AI-ethiek onderzoeken het morele psychologische raadsel dat we ervaren wanneer AI-systemen hard worden behandeld. Een van de grootste zorgen is dat degenen die zo'n "mishandeling" plegen, ons misschien allemaal aansporen om minder gevoelig te zijn voor allerlei vormen van mishandeling, met inbegrip van en gevaarlijk het glibberige pad van de bereidheid om medemensen te mishandelen.

In een recent onderzoek gepubliceerd in de AI en ethiekjournaal getiteld "Socio-Cognitive Biases In Folk AI Ethics And Risk Discourse", beschrijven de onderzoekers de ontnuchterende zaak als volgt: "Hetzelfde fenomeen kan een moreel psychologisch probleem worden tijdens het tijdperk van AI's en robots. Wanneer onze dagelijkse realiteit wordt bevolkt door verschillende intelligente systemen die de status van moreel geduld missen, kunnen mensen gewend raken aan wreedheid en onverschilligheid. Omdat we soms aan robots denken alsof ze levend en bewust zijn, kunnen we impliciet gedragspatronen aannemen die een negatieve invloed kunnen hebben op onze relaties met andere mensen” (co-auteur van Michael Laakasuo, Volo Herzon, Silva Perander, Marianna Drosinou, Jukka Sundvall, Jussi Palomaki en Aku Visala).

Waar het op neerkomt, is dat we misschien onverbiddelijk accepteren dat mishandeling vrijwel goed is om te ondernemen, of het nu gaat om een ​​object zoals een op AI gebaseerde robot of een levend ademend mens. U kunt aan deze lijst de mogelijkheid toevoegen van toenemende mishandeling van dieren. Al met al kunnen de sluizen van mishandeling een zware tsunami zijn die alles wat we doen gevaarlijk zal doordrenken.

Stap voor stap zullen we wennen aan de mishandeling van AI-systemen, en dit zal op zijn beurt stukje bij beetje onze afkeer van mishandeling verminderen.

Dat is een ethische AI-theorie die nauwkeurig wordt onderzocht. Dit komt vooral nu op het juiste moment, omdat de AI-systemen die worden gemaakt en in gebruik worden genomen, meer lijken op en handelen dan ooit tevoren op menselijke capaciteiten. AI neigt ernaar om te worden gemaakt om eruit te zien als menselijk gevoel, daarom verschuiven we mogelijk verder naar beneden in het huiveringwekkende, verschrikkelijke spectrum van mishandeling.

Zoals ik binnenkort zal uitleggen, is er een neiging voor ons om AI-systemen te antropomorfiseren. We construeren de mensachtig ogende AI als gelijkgesteld aan menselijke aspecten, ondanks het feit dat er tegenwoordig geen AI is die bewust is en we weten nog niet of het gevoel ooit zal worden bereikt. Zullen mensen in een mentale val trappen door de mishandeling van AI te accepteren alsof het een groen licht is om mishandeling van mens en dier (alle levende wezens) te bevorderen?

Sommigen beweren dat we dit in de kiem moeten smoren.

Vertel mensen dat ze AI-systemen niet mogen mishandelen. Zelfs die onderzoekers met de lopende en kruipende robots bewezen een slechte dienst door schijnbaar vrolijk de video's van hun inspanningen te tonen. Het is een nieuwe steen in de muur van ondermijnende maatschappelijke opvattingen over mishandeling. Laat de sneeuwbal niet van de bittere besneeuwde heuvel afrollen.

Sta erop dat we alles met het nodige respect behandelen, inclusief objecten en artefacten. En vooral wanneer die objecten of artefacten betrekking hebben op of lijken op de menselijke vorm. Als we die mensen niet kunnen stoppen die hun smartphone tegen een muur willen gooien, het zij zo, maar als ze een robot willen kapotmaken of een apparaat met een robuuste menselijke uitstraling willen mishandelen, moeten we voet bij stuk houden .

Hogwash, sommigen antwoorden met grote minachting.

Er is geen verband tussen hoe mensen een AI-systeem behandelen en het idee dat ze op de een of andere manier zullen veranderen hoe ze mensen en dieren behandelen. Dat zijn twee verschillende onderwerpen. Haal ze niet door elkaar, luidt het tegenargument.

Mensen zijn slim genoeg om de acties naar objecten en hun acties naar levende wezens gescheiden te houden. Je zwaait met de hand door te proberen die punten met elkaar te verbinden. Het lijkt erop dat een soortgelijke bezorgdheid ontstond over het opgroeien met videogames waarmee spelers videopersonages konden neerschieten en vernietigen. In dat geval was het vermoedelijk erger dan het schaden van AI-robots, aangezien de videogame soms videopersonages tentoonstelde die volkomen op mensen leken.

Het tegenargument is dat videogames niet te maken hebben met echte objecten. De speler weet dat ze zijn ondergedompeld in een droomlandschap. Dat is ver verwijderd van het gooien van een smartphone door een kamer of het meppen van een kruipende robot met een stok. Bovendien is er onderzoek dat de scrupules ondersteunt van hoe het spelen van videogames kan overgaan in gedrag in de echte wereld.

AI-ethiek onderzoekt de drijvende krachten achter menselijk gedrag en hoe de komst van relatief geavanceerde op AI gebaseerde systemen zal worden beïnvloed, vooral in het licht van de soms mishandeling door mensen van dergelijke AI-systemen. Over autorijden gesproken (ja, ik heb dat erin geslopen), hierdoor kan ik overschakelen naar het onderwerp van op AI gebaseerde echte zelfrijdende auto's, wat goed in dit algemene thema past.

Zie je, in mijn hoedanigheid als expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over mishandelingen van objecten of artefacten?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarvan de AI de auto volledig alleen bestuurt en dat er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADA . worden genoemdADA
S (geavanceerde rijhulpsystemen).

Er is nog geen echte zelfrijdende auto op niveau 5, waarvan we nog niet eens weten of dit mogelijk zal zijn en hoe lang het duurt om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en vijandigheid door mensen

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te nemen in zelfrijdende auto's en ethische AI-vragen rond onze mogelijke mishandeling van die geroemde autonome voertuigen.

Ten eerste zou je natuurlijk kunnen aannemen dat niemand een op AI gebaseerde zelfrijdende auto zou mishandelen.

Dit lijkt logisch. Over het algemeen accepteren we het idee dat een van de belangrijkste voordelen van zelfrijdende auto's is dat ze bij veel minder auto-ongelukken betrokken zullen raken dan door mensen bestuurde auto's. De AI wil niet drinken en rijden. De AI zal geen kattenvideo's bekijken terwijl ze aan het stuur zitten. Alleen al in de Verenigde Staten vallen jaarlijks ongeveer 40,000 dodelijke slachtoffers als gevolg van auto-ongelukken en ongeveer 2.5 miljoen gewonden, waarvan een groot deel naar verwachting niet meer zal voorkomen zodra we een prevalentie van zelfrijdende auto's op onze wegen hebben.

Wat is er niet leuk aan zelfrijdende auto's, zou je tegen jezelf kunnen zeggen.

Nou, de lijst is vrij uitgebreid, zie mijn verslag op deze link hier, maar vanwege ruimtebeperkingen zal ik hier slechts enkele van de meer in het bijzonder genoemde ongewenste aspecten behandelen.

Zoals ik eerder in mijn columns heb vermeld, zijn er gevallen geweest van mensen die stenen gooiden naar passerende zelfrijdende auto's en naar verluidt metalen voorwerpen zoals spijkers op straat plaatsten om de banden van zelfrijdende auto's te doorboren. Dit werd gedaan om verschillende beweerde redenen. Een daarvan is dat de mensen in het gebied waar de zelfrijdende auto's rondzwierven, bang waren dat de AI-aandrijfsystemen niet klaar waren voor prime time.

De zorg was dat het AI-aandrijfsysteem mis zou kunnen gaan, misschien over een kind heen rennen dat de straat overstak of een geliefde hond slaan die misschien op de weg slingerde. Volgens het eerdere punt over ons schijnbaar behandeld als proefkonijnen, was de overtuiging dat er onvoldoende getest en voorbereid was en dat zelfrijdende auto's op ongepaste wijze werden losgelaten. De pogingen om de try-outs in te perken, werden gedaan als een openbare uiting van angst over de zelfrijdende auto's die legaal rond mochten dwalen.

Er kunnen andere redenen in de gevallen zijn gemengd. Sommigen hebben bijvoorbeeld gesuggereerd dat menselijke chauffeurs die afhankelijk zijn van het verdienen van hun brood via het delen van ritten, bang waren dat AI op het punt stond hen te vervangen. Dit was een bedreiging voor hun levensonderhoud. U weet zeker dat de opkomst van op AI gebaseerde echte zelfrijdende auto's nog ver weg is en dat het probleem van de verplaatsing van werknemers niet onmiddellijk is. Ergo, het lijkt erop dat het gooien van stenen en andere incidenten waarschijnlijk meer te maken hadden met veiligheidsproblemen.

Voor onze doeleinden in dit thema over AI-mishandeling, rijst de vraag of de bereidheid om deze enigszins destructieve acties te ondernemen tegen op AI gebaseerde zelfrijdende auto's een vroege indicator is van het gladde pad van het mishandelen van AI naar het mishandelen van mensen.

Houd die gedachte vast.

Een andere invalshoek van weloverwogen mishandeling van op AI gebaseerde zelfrijdende auto's bestaat uit het "pesten" dat sommige menselijke bestuurders en zelfs voetgangers hebben gericht op die autonome voertuigen, zie mijn analyses op de link hier en de link hier.

Kortom, menselijke automobilisten die rijden en misschien een zelfrijdende auto tegenkomen, kiezen er soms voor om rijgerelateerde trucs uit te halen op zelfrijdende auto's. Dit bedrog wordt soms gewoon voor de lol gedaan, maar de basis is meestal te wijten aan frustraties en ergernis over de huidige AI-aandrijfsystemen.

De meeste AI-rijsystemen zijn geprogrammeerd om op een strikt legale manier te rijden. Menselijke chauffeurs rijden niet per se op een strikt legale manier. Menselijke bestuurders rijden bijvoorbeeld vaak boven de aangegeven snelheidslimiet, soms op de meest flagrante manieren. Wanneer menselijke bestuurders zich achter een zelfrijdende auto bevinden, wordt de menselijke bestuurder belemmerd door het "slowpoke" AI-aandrijfsysteem.

Mensen die in gebieden wonen die momenteel goed bevolkt zijn met zelfrijdende auto's, zijn geneigd onmiddellijk van streek te raken als ze een zelfrijdende auto voor zich zien. Ze weten dat het autonome voertuig hun reis langer zal maken dan nodig is. Zulke bestuurders zullen er dus voor kiezen om agressief te zijn tegenover de zelfrijdende auto.

Chauffeurs weten dat ze om de zelfrijdende auto heen kunnen kruipen en hem kunnen afsnijden. Het AI-aandrijfsysteem zal het autonome voertuig alleen maar vertragen en zal niet reageren op een manier van woede op de weg. Als een menselijke bestuurder dezelfde agressieve beweging zou proberen uit te voeren naar een andere menselijke bestuurder, is de kans groot dat er vrijwel zeker vergelding zal optreden. Tot op zekere hoogte matigen menselijke bestuurders hun agressieve rijstijl op basis van het besef dat de benadeelde bestuurder wraak zou kunnen nemen.

Zal dit soort menselijk rijgedrag in de richting van zelfrijdende auto's op basis van AI Pandora's doos met slecht rijgedrag openen?

Conclusie

We hebben twee algemene voorbeelden op tafel gezet van mensen die schijnbaar op AI gebaseerde zelfrijdende auto's mishandelen. Het eerste voorbeeld betrof het gooien van stenen en het proberen het gebruik van zelfrijdende auto's op de wegen te dwarsbomen. Het tweede voorbeeld betreft agressief rijden op zelfrijdende auto's.

Dit brengt in ieder geval deze zorgen met zich mee:

  • Zal de opkomst van een dergelijke mishandeling zich ook uitstrekken tot door mensen bestuurde auto's?
  • Als dit zo doorgaat of zich verder uitbreidt, zal een dergelijke mishandeling dan overslaan op andere aspecten van menselijke inspanningen?

Een reactie is dat dit slechts tijdelijke reacties zijn op op AI gebaseerde zelfrijdende auto's. Als het publiek ervan kan worden overtuigd dat zelfrijdende auto's veilig op onze wegen rijden, zullen het stenengooien en dergelijke zware handelingen vrijwel verdwijnen (wat overigens zo lijkt te verdwijnen). Als de AI-aandrijfsystemen kunnen worden verbeterd om minder een knelpunt op onze wegen te zijn, zouden menselijke bestuurders in de buurt minder geneigd zijn om agressief te zijn ten opzichte van zelfrijdende auto's.

De focus tijdens deze discussie was dat mishandeling vermoedelijk mishandeling voortbrengt. Hoe meer je mishandelt, zoals het mishandelen van AI, hoe meer dat mishandelen wordt geaccepteerd en ondernomen, zoals tegen mensen en dieren.

Geloof het of niet, er is een andere kant aan die medaille, hoewel sommigen dit beschouwen als een optimistische draai aan de zaak.

Het is deze bijzonder optimistische propositie: Misschien verwekt een juiste behandeling de juiste behandeling.

Dit is wat ik bedoel.

Sommige experts suggereren dat, aangezien AI-rijsystemen zijn geprogrammeerd om legaal en voorzichtig te rijden, menselijke chauffeurs hiervan kunnen leren en besluiten om gezonder te rijden. Als de andere auto's om je heen zich strikt aan de snelheidslimiet houden, doe jij dat misschien ook. Wanneer die zelfrijdende auto's volledig stoppen bij stopborden en niet proberen door rood te rijden, zullen menselijke bestuurders op dezelfde manier worden geïnspireerd om mindful te rijden.

Een scepticus zou die manier van denken dun of misschien zelfs gelukzalig grote ogen en absurd naïef vinden.

Noem me een optimist, maar ik stem voor het dromerige idee dat menselijke chauffeurs gemotiveerd zullen zijn om oordeelkundiger te rijden. Natuurlijk, het feit dat op AI gebaseerde echte zelfrijdende auto's op video en hun andere sensoren de maffe manoeuvres van andere door mensen aangedreven auto's in de buurt zullen vastleggen, en onmiskenbaar illegaal rijden aan de politie kan melden via een simpele druk op de knop , zou de "inspiratie" kunnen bieden die nodig is voor beter menselijk rijden.

Soms zijn zowel de wortel als de stok nodig om menselijk gedrag harmonieus op één lijn te krijgen.

Bron: https://www.forbes.com/sites/lanceeliot/2022/07/30/ai-ethics-confronting-whether-irate-humans-that-violently-smash-or-mistreat-ai-is-alarmingly- immorele-zoals-die-boze-mensen-die-uithalen-naar-volledig-autonome-ai-systemen/