AI-ethiek en autonome systemen lessen getrokken uit die recente vlucht van Alaska Airlines waar de piloot en co-piloot het niet eens waren voordat ze opstegen en er abrupt voor kozen om terug naar de terminal te taxiën en hun eigen weg te gaan

Luchtvaartmaatschappijen zijn de laatste tijd nogal wat in het nieuws.

We zitten in de zomercrisis van vluchten. Vermoeide en gefrustreerde passagiers worden geconfronteerd met allerlei vluchtverstoringen en verdraaiingen in de planning van luchtvaartmaatschappijen. Vluchten worden onverwacht geannuleerd. Vluchten zijn vertraagd. Passagiers roken. Er zijn helaas veel gevallen geweest van passagiers die deze ergernissen hebben laten uitbarsten, en we hebben jammerlijk veel te veel virale video's gezien van rechtstreekse confrontaties en soms slaande vuistslagen.

Zeldzamer leren we over geschillen tussen een piloot en een copiloot die zich in de cockpit kunnen voordoen.

Dat is nogal een verrassing.

Inderdaad, we zijn natuurlijk verrast om te denken dat een piloot en copiloot enige schijn van een ernstig meningsverschil zouden hebben tijdens elke fase van een vlucht. Als het meningsverschil betrekking heeft op welk merk koffie het beste is, is onze veronderstelling dat dit niet ten koste gaat van de werkinspanning die het vliegen met zich meebrengt. De twee zouden eenvoudig hun gebrek aan oog in oog afschudden over een schijnbaar vluchtirrelevant onderwerp. Hun professionele houding en langdurige opleiding van piloten zouden beginnen en ze zouden hun aandacht weer richten op de vluchtgegevens.

Overweeg echter wanneer een professionele onenigheid grijpt in.

Ik ga kort een nieuwsbericht met u delen dat veel is gepubliceerd over een recent geval van iets dat tijdens een vlucht in de VS is gebeurd met betrekking tot een beweerd professioneel meningsverschil in de cockpit.

Dit wordt hierin vooral aangehaald zodat we een gerelateerd onderwerp kunnen onderzoeken dat van groot belang is voor de komst van Kunstmatige Intelligentie (AI). Zie je, er kan een vorm zijn van laten we zeggen professionele onenigheid tussen niet alleen mensen in een mens-tot-mens onenigheid, maar we kunnen ook iets soortgelijks hebben te midden van de adoptie van AI en ergo resulterende mens-versus-AI professionele meningsverschillen . Allerlei AI Ethische overwegingen komen aan de orde. Voor mijn uitgebreide en doorlopende berichtgeving over AI-ethiek en ethische AI-kwesties, zie: de link hier en de link hier, om er maar een paar te noemen.

Bereid je voor op een fascinerend verhaal.

Zoals onlangs in het nieuws werd gemeld, ontstond er blijkbaar een geval van "professionele onenigheid" tijdens een vlucht van Alaska Airline die van Washington naar San Francisco ging. Volgens de nieuwsberichten was het vliegtuig weggegaan van de gate en wachtte het op het tarmac op toestemming om te taxiën en te vliegen. Een storm was onderweg en leidde tot een vertraging van meer dan anderhalf uur. Blijkt dat het vliegtuig zich uiteindelijk omdraaide en terugging naar de gate, waarvan sommige passagiers normaal hadden aangenomen dat het gewoon een veiligheidsmaatregel was die verband hield met de storm.

Volgens verschillende tweets lijkt het erop dat de piloot en de copiloot tijdens hun tijd daar in de cockpit een soort van onopgemerkte vete hadden en op de een of andere manier tot de conclusie kwamen dat de meest voorzichtige benadering zou zijn om de vlucht te scrubben en terug te keren naar de terminal . Tweets suggereerden dat de gezagvoerder en eerste officier blijkbaar niet met elkaar overweg konden. De luchtvaartmaatschappij gaf later een verklaring af dat de situatie ongelukkig was (de situatie werd niet expliciet vermeld of uitgelegd), de twee vluchtofficieren werden geëvalueerd door het management en geschikt bevonden om te vliegen, de bemanningen werden verwisseld en de vlucht vond uiteindelijk plaats en later bereikte San Francisco.

In zekere zin, als de piloot en de copiloot inderdaad een professioneel meningsverschil hadden, bijvoorbeeld of het vliegtuig voldoende gereed was om te vliegen of dat het risico om door een storm te vliegen binnen een geschikt veiligheidsbereik lag, zouden die passagiers moeten worden afgelost en dankbaar dat het vliegtuig was teruggebracht naar de gate. Het is beter om veilig te zijn dan sorry. Het hebben van een extra vertraging is de veronderstelde vermindering van de risico's die gepaard gaan met een beschouwde zware of ongunstige vliegreis zeker waard.

Sommige mensen zullen misschien verbaasd zijn dat zo'n professioneel meningsverschil kan ontstaan.

We hebben misschien de verkeerde indruk dat alles wat er in de cockpit gebeurt, volledig precies en goed gescript is. Elke vorm van menselijke discretie lijkt uit het proces te zijn uitgewrongen. Op basis van veeleisende en grondig berekende grafieken is een vlucht goed om door te gaan of niet. Er kan geen onenigheid zijn wanneer men denkt dat de hele kit en caboodle gebaseerd is op onweerlegbare calculus van feiten en cijfers.

Dat is niet de volledige waarheid. Natuurlijk, er is een hele reeks protocollen en allerlei checks and balances, maar dit onderdrukt niet alle menselijke oordelen. Piloten en copiloten oefenen nog steeds een menselijk oordeel uit. Gelukkig wordt dit menselijke oordeel aangescherpt door jarenlang vliegen. De kans is groot dat een piloot en copiloot in een commercieel passagiersvliegtuig veel eerdere vliegervaring hebben en gemakkelijk gebruik kunnen maken van hun jarenlange diepgaande redenering en beoordelingsvermogen in verband met het zijn bij de vluchtleiding.

Gezien de opmerkelijke rol van het menselijk oordeel, kunnen we logischerwijs verwachten dat een piloot en copiloot soms professionele meningsverschillen zullen hebben. Meestal is er zo weinig onenigheid. De piloot en copiloot voor dagelijkse vluchten zijn waarschijnlijk goed afgestemd op het overwicht van de tijd. Alleen wanneer een vluchtscenario buiten de conventionele grenzen zou kunnen gaan, verwachten we dat er meer spanning ontstaat.

Als er een sterk verschil van mening is tussen de twee, zou ik durven zeggen dat we willen dat ze het uitpraten.

Stel je een situatie voor waarbij de piloot gretig door wil gaan, maar de copiloot de risico's te groot vindt. Het lijkt onwenselijk om de copiloot alleen maar te laten kwetsen voor de piloot. De copiloot is een check-and-balance voor wat een piloot misschien denkt te doen. Voor degenen die willen dat een copiloot zijn mond houdt en alleen gedachteloos handelt naar wat de piloot decreteert, nou, dat is niet echt een geruststelling. Een copiloot is niet zomaar een reserve "piloot" die pas in beeld komt als de piloot volledig arbeidsongeschikt is. Dat is een verkeerd begrip van de waarde van een piloot en copiloot in de cockpit.

Er is een andere invalshoek.

Denk aan het geval van een piloot die niet gelooft dat een vlucht moet doorgaan en terwijl de copiloot in de lucht is. Wat dan? Volgens de verwachte hiërarchie wordt verondersteld dat de piloot conventioneel prevaleert boven de copiloot. De aangewezen rol om de eerste verantwoordelijke te zijn, maakt de piloot de grotere van wat anders enigszins gelijk is. Normaal gesproken heeft de piloot meer algemene vliegtijdkruiden dan de copiloot en dus wordt de copiloot hiërarchisch verondersteld te voldoen aan de wensen van de piloot (indien binnen redelijke grenzen).

In ieder geval denk ik dat we het er allemaal over eens kunnen zijn dat niet vliegen een zeker minder risicovolle keuze is dan besluiten om te vliegen. Als het vliegtuig eenmaal in de lucht is, worden de risiconiveaus enorm in vergelijking met een gewone stabiele ondergrond. Een gebruikelijke commerciële vlucht die gewoon terug naar de terminal taxiet zonder in de lucht te zijn geweest, zou een redelijk minnelijke oplossing zijn voor elk verhit, bitter debat over het vliegen.

Laten we een andere versnelling kiezen en dit pittige nieuwsbericht gebruiken voor een heel ander, maar herkenbaar doel.

Geleidelijk aan hebben we onder ons een prevalentie van op AI gebaseerde autonome systemen. Soms runt de AI als het ware de show. De AI doet alles van A tot Z, en we zouden dit kunnen opvatten als AI die volledig autonoom is of bijna. In andere gevallen kunnen we AI hebben die interageert met en tot op zekere hoogte is geprogrammeerd om afhankelijk te zijn van een mens-in-the-loop.

Ik zou me willen concentreren op de kwestie van een op AI gebaseerd autonoom of semi-autonoom systeem dat vanaf het begin een mens in de lus heeft. De AI en de mens worden opzettelijk samengebracht en zouden samen moeten werken. Ze zijn cohorten in het uitvoeren van een bepaalde taak. Het is niet de bedoeling dat de AI alleen de taak uitvoert. De AI moet communiceren met de aangewezen human-in-the-loop.

Ik breng deze karakterisering naar voren om te onderscheiden van situaties waarin de mens-in-de-loop als een optioneel facet wordt beschouwd. In wezen krijgt de AI vrij spel. Als de AI ervoor kiest om gebruik te maken van de mens, so be it om dat te doen. Er is geen vereiste dat de AI de basis moet raken met of hand in hand moet werken met de aangewezen persoon. De analyses die ik nu ga vertellen, zijn zeker relevant voor dat soort optioneel interactieregeling, maar dat is niet waar ik specifiek naar toe ga in deze specifieke discussie.

Oké, dus we hebben een soort taak waar een mens en een AI samen aan gaan werken, onlosmakelijk van elkaar. In abstracte zin hebben we een mens op de ene stoel en een AI-systeem in de andere bijbehorende stoel. Ik zeg dit brutaal omdat we deze discussie niet beperken tot bijvoorbeeld een robot die eigenlijk op een stoel zou kunnen zitten. Ik doel metaforisch op het idee dat de AI ergens deelneemt aan de taak en dat geldt ook voor de mens. Lichamelijk is hun verblijfplaats niet bijzonder essentieel voor de discussie.

Het kan zijn dat u niet zeker weet wanneer een dergelijke omstandigheid zich kan voordoen.

Makkelijk.

Later zal ik het hebben over de opkomst van zelfrijdende voertuigen en zelfrijdende auto's. Op bepaalde niveaus van autonomie wordt verondersteld dat de AI en de mens samenwerken. De AI bestuurt mogelijk de auto en vraagt ​​​​dat de mens de besturingselementen overneemt. De mens bestuurt mogelijk de auto en activeert de AI om de besturing over te nemen. Ze staan ​​om de beurt aan het stuur.

Bovendien laten sommige ontwerpen de AI in wezen altijd actief zijn (of, tenzij uitgeschakeld), zodat de AI altijd klaar staat. Bovendien kan de AI direct ingrijpen, zelfs zonder dat de mens erom vraagt, afhankelijk van de situatie die zich ontvouwt. Stel bijvoorbeeld dat de mens achter het stuur in slaap lijkt te zijn gevallen. Omdat de mens de AI schijnbaar niet kan activeren (omdat de persoon slaapt), is de AI mogelijk geprogrammeerd om de besturing van de mens over te nemen.

Sommige ontwerpen brengen de AI en de mens in een dubbele rij-aanpak. De AI rijdt en de mens rijdt. Of, zo u wilt, de mens rijdt en de AI rijdt ook. Ze besturen elk het voertuig. Ik vergelijk dit met die speciaal getuigde auto's die je misschien hebt gebruikt tijdens het volgen van een rijopleiding en er waren twee sets bedieningselementen in het voertuig, één voor de leerling-bestuurder en één voor de rij-instructeur.

Dat is maar één voorbeeld van een setting waarin AI en mensen samen aan een taak kunnen werken. Allerlei mogelijkheden bestaan. Andere soorten autonome voertuigen kunnen op dezelfde manier worden ontworpen, zoals vliegtuigen, drones, duikboten, oppervlakteschepen, treinen, enzovoort. We hoeven niet alleen rekening te houden met voertuig- en transportinstellingen. Stel je het medische domein en operaties voor die gezamenlijk worden uitgevoerd door een arts en een AI-systeem. De lijst is eindeloos.

Ik heb bijna zin om te verwijzen naar de klassiek rumoerige grap over een mens en een AI die samen een bar binnenlopen. Het is nogal een lachertje voor degenen die van AI houden.

Serieus, laten we terugkeren naar de focus van een mens en een AI-systeem die samenwerken aan een bepaalde taak. Ten eerste wil ik vermijden om AI te antropomorfiseren, iets wat ik altijd zal benadrukken. De AI is niet bewust. Houd daar rekening mee.

Hier is iets om over na te denken: Zal een aangewezen mens-in-de-loop altijd volledig instemmen met een co-teamed AI?

Voor elke complexe taak lijkt het onwaarschijnlijk dat de mens en de AI volledig en altijd volledig op elkaar zijn afgestemd. De mens zal het bij sommige gelegenheden mogelijk oneens zijn met de AI. We kunnen die veronderstelling helemaal naar de bank brengen.

Ik zou graag willen dat je ook deze misschien verrassende mogelijkheid overweegt: Zal de AI het altijd volledig eens zijn met een aangewezen human-in-the-loop?

Nogmaals, voor elke complexe taak lijkt het goed denkbaar dat AI in sommige gevallen niet in overeenstemming zal zijn met mensen. Als je al neigt naar het idee dat AI altijd ongelijk moet hebben, terwijl mensen altijd gelijk moeten hebben, zou je er verstandig aan doen om die overhaaste conclusie te heroverwegen. Stel je een auto voor waarin een mens en AI samen het semi-autonome voertuig besturen. De mens stuurt naar een bakstenen muur. Waarom? We weten het niet, misschien is de mens dronken of is hij in slaap gevallen, maar we weten wel dat tegen een bakstenen muur botsen geen goed idee is, al het andere is gelijk. De AI kan de naderende ramp detecteren en proberen weg te blijven van de dreigende barrière.

Alles bij elkaar genomen, zullen we de duidelijke mogelijkheid hebben dat de AI en de mens het niet met elkaar eens zijn. De andere manier om hetzelfde te zeggen is dat mensen en AI zijn het niet met elkaar eens. Merk op dat ik niet wil dat de volgorde van AI-en-mens versus mens-en-AI iets suggereert over de richting of aannemelijkheid van het meningsverschil.

De twee werknemers, een mens en een die AI is, zijn het niet met elkaar eens.

We zouden vooraf kunnen verklaren dat wanneer er een meningsverschil ontstaat tussen een bepaalde AI en een bepaalde mens, we vooraf verkondigen dat de mens de overhand heeft op de AI. Dat gezegd hebbende, mijn illustratieve voorbeeld over de auto die tegen een bakstenen muur rijdt, lijkt ons ervan te weerhouden dat de mens altijd gelijk zal hebben.

We zouden er daarentegen voor kunnen kiezen om van te voren te verklaren dat we bij onenigheid vooraf hebben vastgesteld dat de AI gelijk heeft en de mens ongelijk. Dit is evenmin een verstandig generaliseerbare bepaling. Stel je een auto voor waarin de AI een ingebouwde softwarefout of bug heeft, en de AI probeert het voertuig van de weg en in een greppel te sturen. Ervan uitgaande dat al het andere gelijk is, zou de mens deze AI-rijactie moeten kunnen overwinnen en voorkomen dat het voertuig in de geul landt.

Laten we hiervan een korte samenvatting maken:

  • Zal een mens-in-de-loop het altijd volledig eens zijn met AI? Antwoord: Nr.
  • Zal AI het altijd volledig eens zijn met een mens-in-de-loop? Antwoord: Nee.
  • Zal een mens-in-de-loop altijd gelijk hebben in vergelijking met AI? Antwoord: Niet per se.
  • Zal de AI altijd gelijk hebben in vergelijking met de mens-in-de-loop? Antwoord: niet noodzakelijk.

Je kunt de AI zeker zo instellen dat deze standaard als de "foute" of zwakkere partij wordt beschouwd en daarom altijd de mens uitstelt wanneer er een meningsverschil ontstaat. Evenzo kunt u de AI instellen om aan te nemen dat de AI als "juist" wordt beschouwd wanneer een mens het niet eens is met de AI. Ik wil duidelijk maken dat we dat programmatisch kunnen doen als we dat willen. Ik beweer echter dat dit in het algemeen niet altijd het geval zal zijn. Er zijn zeker situaties waarin we niet van tevoren weten of de AI "juist" of de mens "gelijk" heeft in termen van het kiezen van de een of de ander over een meningsverschil met betrekking tot een bepaalde taak.

Ik heb u naar een zeer belangrijke en zeer gecompliceerde vraag geleid.

Wat moeten we doen als er een professionele meningsverschil ontstaat tussen de mens-in-the-loop en AI (of, op een equivalente manier, we kunnen dit formuleren als zijnde tussen de AI en de mens-in-the-loop)?

Probeer de vraag niet te ontwijken.

Sommigen zullen misschien beweren dat dit nooit zou gebeuren, maar zoals ik in mijn voorbeeld over de auto heb uiteengezet, zou het zeker kunnen gebeuren. Sommigen zouden kunnen beweren dat een mens duidelijk superieur is en de winnaar moet zijn van elk meningsverschil. Mijn voorbeeld van de auto en de bakstenen muur maakt die kapot. Er zijn voorstanders van AI die erop zouden kunnen staan ​​dat AI de winnaar moet zijn, vanwege het ogenschijnlijk overwinnen van menselijke emoties en baldadig denken door die lukrake fuzzy-thinking mensen. Nogmaals, mijn andere voorbeeld, waarbij de auto de sloot inrijdt, ondergraaft die bewering.

In de echte wereld zullen AI en mensen het oneens zijn, zelfs wanneer de twee doelbewust in een teamsituatie worden gebracht om een ​​gezamenlijk uitgevoerde taak uit te voeren. Het zal gebeuren. We kunnen niet onze kop in het zand steken en doen alsof het niet zal gebeuren.

We zagen dat de mensen die het vliegtuig bestuurden, kennelijk onenigheid kregen. Gelukkig waren ze het er niet mee eens, zo lijkt het. Ze brachten het vliegtuig terug naar de terminal. Ze vonden een manier om met het meningsverschil om te gaan. De oplossing voor hun onenigheid werkte goed, in vergelijking met het feit of ze misschien in de cockpit waren gaan vuisten of misschien de lucht in waren gevlogen en strijdlustig met elkaar zouden blijven. Dat is een treurig scenario dat onhoudbaar is, en we kunnen dankbaar zijn dat het niet heeft plaatsgevonden.

Staat u mij toe mijn lijst te geven van de verschillende manieren waarop de meningsverschillen over AI en human-in-the-loop (of, human-in-the-loop en AI) kunnen worden opgelost:

  • AI en de samenwerkende mens lossen dingen op (in der minne of niet)
  • De mens prevaleert standaard boven de AI
  • AI prevaleert standaard boven de mens
  • Een andere vooraf bepaalde vaste resolutie prevaleert standaard
  • De mens van een derde partij wordt ingelust en hun indicatie prevaleert boven de partijen
  • AI van derden wordt doorgelust en de indicatie ervan prevaleert boven de partijen
  • Externe mens vervangt de bestaande mens, dingen gaan opnieuw
  • AI van derden vervangt de bestaande AI, dingen gaan opnieuw
  • Externe mens vervangt de bestaande AI, dingen gaan opnieuw (nu mens-tot-mens)
  • AI van derden vervangt de bestaande mens, dingen gaan opnieuw (nu AI-to-AI)
  • Overige

Die zijn het ruimschoots waard om uitgepakt te worden.

Voordat we ingaan op wat meer vlees en aardappelen over de wilde en wollige overwegingen die ten grondslag liggen aan hoe om te gaan met AI en menselijke meningsverschillen, laten we wat aanvullende grondbeginselen uiteenzetten over zeer essentiële onderwerpen. We moeten even een frisse duik nemen in AI Ethics en vooral de komst van Machine Learning (ML) en Deep Learning (DL).

Je bent je er misschien vaag van bewust dat een van de luidste stemmen tegenwoordig in het AI-veld en zelfs buiten het veld van AI bestaat uit het roepen om een ​​grotere schijn van ethische AI. Laten we eens kijken naar wat het betekent om te verwijzen naar AI Ethics en Ethical AI. Bovendien zullen we onderzoeken wat ik bedoel als ik het heb over Machine Learning en Deep Learning.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethiekbegrippen. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Laten we terugkeren naar onze focus op meningsverschillen tussen AI en een mens.

Ik heb eerder aangegeven dat dit enkele van de strategieën zijn om onenigheid op te lossen:

  • AI en de samenwerkende mens lossen dingen op (in der minne of niet)
  • De mens prevaleert standaard boven de AI
  • AI prevaleert standaard boven de mens
  • Een andere vooraf bepaalde vaste resolutie prevaleert standaard
  • De mens van een derde partij wordt ingelust en hun indicatie prevaleert boven de partijen
  • AI van derden wordt doorgelust en de indicatie ervan prevaleert boven de partijen
  • Externe mens vervangt de bestaande mens, dingen gaan opnieuw
  • AI van derden vervangt de bestaande AI, dingen gaan opnieuw
  • Externe mens vervangt de bestaande AI, dingen gaan opnieuw (nu mens-tot-mens)
  • AI van derden vervangt de bestaande mens, dingen gaan opnieuw (nu AI-to-AI)
  • Overige

Tijd om deze uit te pakken.

Bedenk eerst dat het hier allemaal om draait: professioneel meningsverschillen.

Een professioneel meningsverschil wordt losjes gedefinieerd als een meningsverschil in verband met een werkgerelateerde taak.

Een meningsverschil dat ontstaat tussen een piloot en een copiloot over het al dan niet doorgaan van een vlucht die wordt geconfronteerd met een storm, kan bijvoorbeeld redelijkerwijs worden bestempeld als een professioneel meningsverschil. Daarentegen wordt een heftige onenigheid over welk merk koffie de piloot pleit voor versus het merk dat de copiloot verkiest, in deze specifieke context gemakkelijk gecategoriseerd als een niet-professionele onenigheid.

Natuurlijk, als een niet-professioneel meningsverschil uitmondt in een professioneel meningsverschil, kunnen we uiteindelijk geïnteresseerd zijn in het niet-professionele meningsverschil als een veronderstelde bron of vonk voor het professionele meningsverschil. Stel je voor dat een piloot en een copiloot bitter ruzie maken over welk merk koffie de beste is, wat dan helaas overgaat in vluchtspecifieke zorgen (woordspeling!), zoals het al dan niet opstijgen.

Ten tweede moeten we rekening houden met de omvang van het professionele meningsverschil.

Misschien de piloot en de copiloot of in lichte onenigheid over het doorgaan met vliegen. Ze staan ​​niet op gespannen voet en overwegen alleen de voor- en nadelen van het al dan niet opstijgen. Dit is niet het kaliber of de omvang van een professioneel meningsverschil dat we hier gewoonlijk beschouwen. Het punt is, het kan zijn dat het professionele meningsverschil van voorbijgaande aard is en beide partijen hartelijk of op zijn minst tijdig tot een oplossing komen. Over het algemeen ligt de focus van professionele onenigheid binnen het bereik van die schijnbaar hardnekkige, en de twee partijen blijven standvastig in onenigheid.

Ten derde moet er meestal iets serieus op het spel staan ​​voordat deze richtlijnen een rol gaan spelen.

Kiezen om te vliegen of niet te vliegen, is beslist een beslissing van leven of dood als de vlucht gevaar loopt door een storm of als het vliegtuig wordt beschouwd als niet volledig voorbereid op een dergelijke reis. Dit is een serieuze zaak. We kunnen de richtlijnen nog steeds toepassen op de minder ingrijpende professionele meningsverschillen, hoewel het misschien meer moeite kost dan het waard is.

Oké, onze overwegingen zijn dat:

  • Het meningsverschil is voornamelijk professioneel georiënteerd in plaats van iets niet-professioneels
  • Het meningsverschil is van blijvende aard en niet slechts van voorbijgaande aard of anderszins gemakkelijk opgelost
  • Het meningsverschil voorspelt ernstige gevolgen en heeft meestal een ingrijpende uitkomst
  • De partijen liggen op gespannen voet en ze lijken onhandelbaar

Laten we nu eens nader kijken naar elk van mijn voorgestelde richtlijnen of benaderingen met betrekking tot hoe om te gaan met dergelijke professionele meningsverschillen.

AI en de samenwerkende mens lossen dingen op (in der minne of niet)

Ik begin de lijst met de directe mogelijkheid dat de AI en de mens-in-the-loop in staat zijn om het professionele meningsverschil onderling op te lossen. Het lijkt erop dat het voorbeeld van de twee mensen, de piloot en de copiloot, dit soort omstandigheden illustreren. Ze besloten op de een of andere manier terug te keren naar de terminal en hun eigen weg te gaan. Het kan zijn dat een AI-systeem en een mens in staat zijn om een ​​oplossing te vinden die in het algemeen bevredigend is voor beide partijen en dat de zaak daarmee naar tevredenheid wordt afgehandeld.

De mens prevaleert standaard boven de AI

Bij het opzetten van de AI kunnen we een regel programmeren die zegt dat de mens-in-de-lus altijd zal prevaleren wanneer er een professioneel meningsverschil ontstaat. Dit zou de expliciet gecodeerde standaard zijn. We kunnen ook een vorm van opheffing toestaan, voor het geval dat, hoewel de vaste regel zal zijn dat de mens de overhand heeft.

AI prevaleert standaard boven de mens

Bij het opzetten van de AI kunnen we een regel programmeren die zegt dat de AI altijd prevaleert boven de mens-in-de-loop wanneer er een professioneel meningsverschil ontstaat. Dit is de expliciet gecodeerde standaard. We kunnen ook een vorm van opheffing toestaan, voor het geval dat, hoewel de vaste regel zal zijn dat de AI de overhand heeft.

Een andere vooraf bepaalde vaste resolutie prevaleert standaard

Bij het opzetten van de AI kunnen we een regel programmeren die zegt dat een andere vooraf bepaalde vaste oplossing zal prevaleren wanneer er een professioneel meningsverschil ontstaat met de mens-in-the-loop. De mens-in-de-loop heeft niet standaard de overhand. De AI prevaleert niet standaard. Er is een andere vooraf geïdentificeerde resolutie. Misschien is er bijvoorbeeld het opgooien van een munt die zal worden gebruikt om te beslissen welke van de twee partijen als de juiste weg wordt beschouwd. Dat lijkt natuurlijk nogal willekeurig; dus een andere voorbeeldbenadering zou zijn dat een gespecialiseerde regel in werking treedt die een waarde berekent op basis van invoer van de twee partijen en tot een resultaat komt als een tiebreaker.

De mens van een derde partij wordt ingelust en hun indicatie prevaleert boven de partijen

Bij een professioneel meningsverschil kan een regel zijn dat een derde partij die een mens is, wordt ingeroepen en doorgelust naar de setting om een ​​beslissing te nemen over het oplossen van het meningsverschil. De AI is geprogrammeerd om uit te stellen wat de externe mens ook beslist. De mens die al in de mens-in-de-loop is, is van tevoren geïnstrueerd dat als een dergelijke situatie zich voordoet, ook zij zich moeten overgeven aan de derde partij. Even terzijde, je kunt waarschijnlijk verwachten dat de mens-in-de-lus misschien angst heeft om toe te treden tot wat de derde persoon ook beslist als de beslissing het niet eens is met de houding van de mens-in-de-lus.

AI van derden wordt doorgelust en de indicatie ervan prevaleert boven de partijen

Bij een professioneel meningsverschil kan een regel zijn dat een derde partij die een ander AI-systeem is, wordt ingeroepen en doorgelust naar de setting om een ​​beslissing te nemen over het oplossen van het meningsverschil. De originele AI is geprogrammeerd om uit te stellen wat de externe AI beslist. De mens die al in de human-in-the-loop zit, is van tevoren geïnstrueerd dat als een dergelijke situatie zich voordoet, ook zij moeten uitstellen naar de externe AI. Even terzijde, je kunt waarschijnlijk verwachten dat de mens-in-de-lus misschien angst heeft om toe te treden tot wat de externe AI beslist als de beslissing het niet eens is met de houding van de mens-in-de-lus.

Externe mens vervangt de bestaande mens, dingen gaan opnieuw

Bij een professioneel meningsverschil wordt de mens-in-de-loop vervangen door een derde partij die een mens is en die voortaan de mens-in-de-loop wordt. De mens die de oorspronkelijke mens-in-the-loop was voor de taak, wordt niet langer beschouwd als onderdeel van de taak die voorhanden is. Het is een open aspect van wat er anders gebeurt met de nu vervangen mens-in-the-loop, maar we zeggen dat ze zeker geen doorlopende rol meer hebben in de werktaak.

AI van derden vervangt de bestaande AI, dingen gaan opnieuw

Bij een professioneel meningsverschil wordt de AI vervangen door een externe AI en dat wordt de AI die voortaan wordt gebruikt voor de werktaak. De AI die oorspronkelijk voor de taak werd gebruikt, wordt niet langer beschouwd als onderdeel van de taak. Het is een open aspect van wat er verder gebeurt met de nu vervangen AI, maar we zeggen dat de AI zeker geen doorlopende rol meer heeft in de werktaak.

Externe mens vervangt de bestaande AI, dingen gaan opnieuw (nu mens-tot-mens)

Bij een professioneel meningsverschil wordt de AI vervangen door een externe persoon voor wie die persoon nu de beschouwde co-teampartij wordt die zal worden gebruikt voor de werktaak die voorhanden is. De AI die oorspronkelijk voor de taak werd gebruikt, wordt niet langer beschouwd als onderdeel van de taak. Het is een open aspect van wat er verder gebeurt met de nu vervangen AI, maar we zeggen dat de AI zeker geen doorlopende rol meer heeft in de werktaak. Kortom, dit wordt nu een door twee partijen uitgevoerde taak van mens tot mens.

AI van derden vervangt de bestaande mens, dingen gaan opnieuw (nu AI-to-AI)

Bij een professioneel meningsverschil wordt de human-in-the-loop vervangen door een externe AI en deze AI wordt voortaan de invuller voor de voorgaande human-in-the-loop. De mens die de oorspronkelijke mens-in-the-loop was voor de taak, wordt niet langer beschouwd als onderdeel van de taak die voorhanden is. Het is een open aspect van wat er anders gebeurt met de nu vervangen mens-in-the-loop, maar we zeggen dat ze zeker geen doorlopende rol meer hebben in de werktaak. Kortom, dit wordt nu een AI-naar-AI met twee partijen om de taak uit te voeren.

Overige

Er kunnen andere variaties worden bedacht om het hoofd te bieden aan een professioneel meningsverschil, maar we hebben hierin enkele hoekstenen behandeld.

Hoe moeten we beslissen welke van die benaderingen de juiste is voor een bepaalde situatie?

Bij het maken van een dergelijke keuze komen veel verschillende zaken kijken. Er zijn technologische overwegingen. Er zijn zakelijke overwegingen. Er zijn juridische en ethische overwegingen.

Tot op zekere hoogte is dat de reden waarom AI Ethics en Ethical AI zo'n cruciaal onderwerp is. De voorschriften van AI Ethics zorgen ervoor dat we waakzaam blijven. AI-technologen kunnen soms in beslag worden genomen door technologie, met name de optimalisatie van hightech. Ze houden niet per se rekening met de grotere maatschappelijke gevolgen. Het hebben van een AI-ethiek-mindset en dit integraal doen voor AI-ontwikkeling en fielding is van vitaal belang voor het produceren van geschikte AI, inclusief (misschien verrassend of ironisch genoeg) de beoordeling van hoe AI-ethiek door bedrijven wordt aangenomen.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen zelfs van tevoren dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

Op dit moment van deze gewichtige discussie, durf ik te wedden dat u op zoek bent naar enkele illustratieve voorbeelden die dit onderwerp zouden kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over de resoluties van AI en menselijke meningsverschillen, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en meningsverschillen tussen AI en mensen

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik hoop dat dit een voldoende litanie van voorbehouden biedt om ten grondslag te liggen aan wat ik ga vertellen.

Voor volledig autonome voertuigen is er misschien geen enkele kans op een professionele onenigheid tussen een mens en de AI vanwege de mogelijkheid dat er om te beginnen geen mens in de lus is. Het streven van veel van de hedendaagse zelfrijdende autofabrikanten is om de menselijke bestuurder volledig uit de rijtaak te halen. Het voertuig zal zelfs geen voor mensen toegankelijke bedieningselementen bevatten. In dat geval kan een menselijke bestuurder, indien aanwezig, niet deelnemen aan de rijtaak omdat hij geen toegang heeft tot de bedieningselementen voor het rijden.

Voor sommige volledig autonome voertuigen laten sommige ontwerpen het nog steeds toe dat een mens in-the-loop is, hoewel de mens helemaal niet beschikbaar hoeft te zijn of deel te nemen aan het rijproces. Zo kan een mens deelnemen aan het autorijden, als de persoon dat wenst. Op geen enkel moment is de AI echter afhankelijk van de mens om een ​​van de rijtaken uit te voeren.

Bij semi-autonome voertuigen is er een hand in hand relatie tussen de menselijke bestuurder en de AI. De menselijke bestuurder kan de rijbesturing volledig overnemen en in wezen voorkomen dat de AI deelneemt aan het rijden. Als de menselijke bestuurder de AI weer in de bestuurdersrol wil terugbrengen, kan hij dat doen, hoewel dit de mens dan soms dwingt de besturingselementen voor het besturen op te geven.

Een andere vorm van semi-autonoom opereren zou inhouden dat de menselijke bestuurder en de AI in teamverband samenwerken. De AI rijdt en de mens rijdt. Ze rijden samen. De AI zou zich kunnen overgeven aan de mens. De mens kan de AI uitstellen.

Op een bepaald moment kunnen het AI-aandrijfsysteem en de menselijke bestuurder in de lus een kruispunt bereiken van een "professionele onenigheid" over de rijtaak die voor de hand ligt.

Om te illustreren hoe sommige van de bovengenoemde regels voor het omgaan met een professioneel meningsverschil een uitdaging kunnen zijn om te implementeren, overweeg het voorbeeld van het inschakelen van een derde persoon om in de zaak te komen en een beslissing te geven om het onopgeloste probleem op te lossen.

Stel dat een autofabrikant of een zelfrijdend technologiebedrijf ervoor heeft gezorgd dat menselijke operators op afstand toegang hebben tot de besturingselementen van voertuigen in hun vloot. De menselijke operator zit in een afgelegen kantoor of een verwante omgeving. Via een computersysteem kunnen ze de rijscène bekijken via de camera's en andere sensorapparaten die op de zelfrijdende auto zijn geladen. Voor hen is dit bijna hetzelfde als het spelen van een online videogame, hoewel de echte omstandigheden natuurlijk ernstige gevolgen kunnen hebben.

Een AI-systeem en een menselijke bestuurder in de auto besturen een semi-autonoom voertuig over een lange snelweg. Plots wil de AI een sloot in sturen. De menselijke chauffeur wil dit niet. De twee ruziën over de stuurbediening.

Hoe wordt dit opgelost?

We hadden misschien vooraf kunnen instellen dat de mens altijd wint. Neem echter aan dat we ervoor hebben gekozen om dat niet te doen.

We hadden vooraf kunnen instellen dat AI altijd wint. Stel dat we ervoor hebben gekozen om dat niet te doen. Al met al hebben we geen van die regels aangenomen, behalve dat we hebben besloten om een ​​derde partij toe te staan ​​om tussenbeide te komen en een professioneel meningsverschil van welke substantiële aard dan ook op te lossen.

In deze use case vechten de AI en de menselijke bestuurder aan het stuur om de besturingselementen. Dit is laten we zeggen overgebracht naar de externe menselijke operator (onze externe mens). De menselijke operator op afstand onderzoekt wat er gebeurt en besluit weg te sturen van de sloot, schijnbaar afwendend wat de AI probeerde te doen. Stel tegelijkertijd dat de menselijke operator op afstand het tegemoetkomende verkeer instuurt, wat misschien noch de AI, noch de menselijke bestuurder in de auto had willen doen.

Het punt is dat de manier waarop deze regel is geïmplementeerd, is dat de externe menselijke operator zowel de AI als de mens-in-the-loop volledig kan negeren. Of dit een goed resultaat zal opleveren, is zeker niet zeker.

Ik zal dit voorbeeld gebruiken om enkele toegevoegde inzichten over deze zaken te benadrukken.

Je kunt niet de brutale veronderstelling maken dat alleen al omdat een van deze regels is ingevoerd, de uitkomst van het opgeloste meningsverschil noodzakelijkerwijs een gegarandeerd goede uitkomst is. Het is misschien niet zo. Er is geen ijzersterke altijd-juiste regel die kan worden geselecteerd.

Vervolgens zijn sommige van deze regels mogelijk niet levensvatbaar implementeerbaar.

Neem het voorbeeld van de menselijke operator op afstand die ingrijpt wanneer de AI en de menselijke bestuurder ruzie maken over de bedieningselementen. Het kan vele seconden duren voordat de menselijke operator op afstand ontdekt wat er aan de hand is. Tegen die tijd kan het voertuig al in de sloot zijn beland of een ander nadelig resultaat hebben gehad. Stel ook dat de locatie van het voertuig toegang op afstand uitsluit, bijvoorbeeld op een plaats waar geen elektronische netwerkverbinding is. Of misschien werken de netwerkfuncties van het voertuig op dat moment niet.

Zoals u kunt zien, kan de regel er op papier dandy uitzien, hoewel het een zeer moeilijke of zeer riskante benadering kan zijn om de regel daadwerkelijk te gebruiken. Bekijk mijn kritische blik op de afstandsbediening van autonome voertuigen en zelfrijdende auto's op de link hier.

Ik wil graag kort een ander gerelateerd onderwerp behandelen dat ik in een komende analyse uitgebreider zal behandelen.

Een van de toenemende zorgen over autonome voertuigen en zelfrijdende auto's die semi-autonoom zijn, zijn de zogenaamde Hete Aardappel Syndroom.

Dit is de deal.

Een AI-aandrijfsysteem en een mens rijden samen. Er ontstaat een hachelijke situatie. De AI is geprogrammeerd om de rijtaak te laten vallen en dingen over te dragen aan de mens wanneer zich een moeilijk moment voordoet. Dit lijkt misschien "verstandig" omdat we de regel lijken in te roepen dat de mens de standaard "winnaar" is in elk mogelijk professioneel meningsverschil.

Maar de AI die stopt, kan voor meer snode of als verraderlijke doeleinden worden beschouwd. Het kan zijn dat de autofabrikant of het zelfrijdende technologiebedrijf niet wil dat hun AI wordt beschouwd als de "schuldige partij" wanneer er een auto-ongeluk plaatsvindt. Om schijnbaar niet zo vastgepind te worden, geeft de AI de besturing abrupt over aan de mens. Voila, de mens is nu vermoedelijk volledig verantwoordelijk voor het voertuig.

De kicker is dat stel dat de AI deze overdracht doet met laten we zeggen nog een seconde te gaan voordat er een crash plaatsvindt.

Zou de mens echt tijd hebben om de crash te voorkomen?

Waarschijnlijk niet.

Stel dat de AI de overdracht uitvoert met nog een paar milliseconden of nanoseconden te gaan. Ik durf te zeggen dat de mens in wezen nul kans heeft om iets te doen om de crash te voorkomen.

Vanuit het perspectief van de autofabrikant of het bedrijf van zelfrijdende auto's, kunnen ze proberen te doen alsof hun handen schoon zijn wanneer zo'n auto-ongeluk plaatsvindt. De auto werd bestuurd door een mens. De AI bestuurde de auto niet. De enige "logische" conclusie lijkt te zijn dat de mens schuldig moet zijn en de AI volledig onberispelijk moet zijn.

Het is een kruik.

In een volgende column ga ik hier dieper op in.

Conclusie

Er zullen professionele meningsverschillen ontstaan.

Het is moeilijk om een ​​complexe taak voor te stellen waarbij twee partijen de taak samen uitvoeren en waarover nooit professionele meningsverschillen zouden ontstaan. Dit lijkt een fantasieland of op zijn minst een grote zeldzaamheid.

Tegenwoordig hebben we heel veel gevallen van mens tot mens van professionele onenigheid, waarvoor dagelijks op een of andere manier vreedzaam en verstandig oplossingen worden gevonden. In feite creëren we vaak opzettelijk situaties om professionele meningsverschillen aan te wakkeren en aan de oppervlakte te brengen. Je zou kunnen beweren dat dit de beroemde wijsheid toont dat soms twee hoofden beter zijn dan één.

Naarmate AI vaker voorkomt, zullen we veel AI-naar-mens of mens-naar-AI-taakuitvoerders hebben en er zullen professionele meningsverschillen dat zal gebeuren. De luie benadering is om altijd uit te wijken naar de mens. Dit is misschien niet de meest geschikte aanpak. AI is misschien de betere keuze. Of misschien is een van de andere eerder genoemde regels een gezondere aanpak.

Er is die wijze regel die vaak wordt herhaald dat we het er in het algemeen allemaal over eens moeten zijn om het oneens te zijn, hoewel als het er op aan komt, een meningsverschil soms ondubbelzinnig moet worden opgelost, anders zal de kwestie tot onnoemelijke rampspoed leiden. We kunnen een meningsverschil niet zomaar laten wegkwijnen. Tijd kan van essentieel belang zijn en er kunnen levens op het spel staan.

Er is een duidelijke vereiste voor een aantal verstandige middelen om meningsverschillen op te lossen, zelfs als dat niet noodzakelijkerwijs zo is, ook wanneer AI en een mens-in-the-loop niet oog-in-oog of byte-to-byte zien.

Ik vertrouw erop dat u het niet oneens zult zijn met die geheel aangename stelling.

Bron: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- de-piloot-en-co-piloot-het-niet-eens-voor-aan-het-opstijgen-en-plotseling-opteerden-om-terug-naar-de-terminal-taxi-en-hun-afzonderlijke-wegen-te gaan/