AI-ethiek worstelt met de vurige een-tweetje van zowel op AI gebaseerde autonome wapensystemen als de exploitatie van AI-gestuurde autonome systemen die duivels bewapend zijn

Die geweldige dansende vierpotige robots.

Ik weet zeker dat je die virale video's hebt gezien van de vierpotige robotsystemen die dansen en steigeren op schijnbaar verrukkelijke en hondachtige, geliefde manieren. We lijken ervan te genieten om die AI-aangedreven robots te zien terwijl ze over obstakels klimmen en een delicate voet aan de grond lijken te krijgen wanneer ze op dozen zitten of nadat ze gevaarlijk op aangeschoten bovenkanten van kasten zijn geplaatst. Hun menselijke begeleiders zullen soms de stoeiende vierpotige robots porren of duwen, wat tergend oneerlijk lijkt en gemakkelijk je woede kan opwekken over de brutale behandeling door die meesterbrein-mensachtigen.

Ik vraag me echter af of je de niet zo virale video's van een heel ander kaliber hebt gezien.

Bereid je voor.

Er zijn veel geposte video's waarin hetzelfde soort vierpotige robots te zien zijn die zijn uitgerust met uitgesproken wapens van een of andere soort.

Er wordt bijvoorbeeld een machinegeweer of een soortgelijk vuurwapen bovenop een verder bekende dansende en steigerende robot gemonteerd. Er is een elektronische koppeling tussen de vierpotige robot en het afvuurmechanisme van het wapen. Het nu bewapende computer-lopende apparaat wordt getoond terwijl het naar de plek loopt waar een doelwit in de roos is geplaatst, en het machinegeweer wordt heftig op het doelwit afgevuurd. Nadat hij het vervolgens gedeeltelijk vernietigde doelwit heeft genageld, danst en steigert de vierpotige robot rond nabijgelegen obstakels en gaat in de rij staan ​​om dezelfde actie keer op keer te herhalen bij andere nieuwe doelen.

Niet helemaal wat je had verwacht te zien. Dit neemt zeker de luchtigheid en relatieve vreugde weg van het openhartig kijken naar die knuffelige vierpotige robots die hun ding doen. Welkom in de harde realiteit van schijnbaar onschadelijk autonome systemen worden omgezet of getransformeerd in scherpe bewapening. Met heel veel moeite kun je van de ene op de andere dag een als “niet-bewapend” autonoom systeem laten ombouwen zodat het volledige wapens kan bevatten.

In sommige omstandigheden is het bijna makkelijk.

Ik ga dit verhit controversiële onderwerp bespreken en de nogal heftige AI-ethische problemen bespreken die zich voordoen. We zullen een reis maken naar autonome systemen, AI, autonome voertuigen, bewapening en een hele reeks gerelateerde ethische AI-strijdkwesties. Voor mijn voortdurende en uitgebreide berichtgeving over AI-ethiek en ethische AI, zie de link hier en de link hier, om er een paar te noemen.

Laten we beginnen met enkele fundamentele hoekstenen.

Accepteer ter wille van de discussie dat er twee belangrijke manieren zijn om autonome systemen die bewapend zijn met wapens te categoriseren:

1) Autonome wapensystemen (met opzet)

2) Autonome systemen die bewapend zijn (door achteraf)

Er is een belangrijk verschil tussen de twee categorieën.

In eerste instantie definiëren we een autonoom wapensysteem om vanaf het begin een gecomputeriseerde creatie te zijn die doelbewust bedoeld is als wapen. De ontwikkelaars hadden in gedachten dat ze een wapen wilden bedenken. Hun expliciete zoektocht is om een ​​wapen te produceren. Ze wisten dat ze wapens integraal konden combineren met de nieuwste autonome systeemtechnologieën. Dit is een wapen dat meelift op de golf van hightech die autonome bewegingen en autonome acties mogelijk maakt (ik zal er binnenkort uitgebreider op ingaan).

In tegenstelling hiermee zullen we in tweede instantie de kwestie van autonome systemen beschouwen die helemaal geen specifieke voorkeur voor wapens hebben. Dit zijn autonome systemen die voor andere doeleinden worden ontwikkeld. Stel je een autonoom voertuig voor, zoals een zelfrijdende auto, dat zal worden gebruikt om mobiliteit voor iedereen te bieden en te helpen bij het terugdringen van de duizenden jaarlijkse dodelijke slachtoffers die optreden als gevolg van door mensen rijdende en door mensen bediende auto’s (zie mijn uitgebreide berichtgeving bij de link hier). Er lijkt geen wapen in aanmerking te komen voor de optimistische, maatschappelijk stimulerende inspanningen om mensen achter het stuur vandaan te halen en in plaats daarvan AI aan het stuur te zetten.

Maar deze onschadelijke autonome systemen kunnen worden bewapend als mensen dat willen.

Deze tweede categorie noem ik dan autonome systemen die bewapend zijn. Het autonome systeem werd oorspronkelijk en vurig ontworpen voor een vermoedelijk niet-bewapend doel. Desondanks wordt de dromerige altruïstische hoop verstoord door iemand ergens die het achterbakse idee krijgt dat dit vernuft als wapen kan worden ingezet. Plots is het autonome systeem dat schattig leek een dodelijk wapen geworden door het koppelen van een of andere vorm van wapencapaciteiten (zoals de eerder genoemde vierpotige, hondachtige robots waaraan een machinegeweer of een soortgelijk vuurwapen is toegevoegd). .

Helaas komen de twee categorieën enigszins op dezelfde plaats terecht, namelijk het bieden van de mogelijkheid om autonome systemen voor wapens op potentieel dodelijke basis te gebruiken.

Het proces om dat eindpunt te bereiken zal waarschijnlijk anders zijn.

Voor de regelrechte bewapende autonome systemen die als wapens werden aangemerkt, staan ​​de wapenaspecten doorgaans centraal. Je zou kunnen zeggen dat de facetten van het autonome systeem de hoeksteen vormen van welk wapen dan ook dat wordt overwogen. Het denkproces van de ontwikkelaars ligt enigszins in de lijn van hoe een wapen de komst van autonome systemen kan exploiteren.

Het andere perspectief is meestal helemaal niet die mentaliteit. De ontwikkelaars willen een state-of-the-art autonoom systeem ontwikkelen, misschien wel ter verbetering van de mensheid. Deze ontwikkelaars hebben hun oprechte hart en ziel gestoken in het maken van het autonome systeem. Dit is de kern van hun uitvinding. Ze kunnen zich misschien niet voorstellen dat iemand hun wonderbaarlijk nuttige apparaat zou overnemen of ondermijnen. Ze zijn dolgelukkig met de maatschappelijke voordelen die verbonden zijn aan het autonome systeem dat wordt gevormd en geproduceerd.

Laten we zeggen dat derde partijen zich op een gegeven moment realiseren dat het autonome systeem kan worden omgebouwd tot bewapening. Misschien misleiden ze de ontwikkelaars om hen het autonome systeem te laten gebruiken voor zogenaamde verheven doeleinden. Achter gesloten deuren kiezen deze boosdoeners ervoor om stiekem een ​​bewapeningscapaciteit aan het autonome systeem toe te voegen. Voila, onschuld veranderde in regelrechte wapens.

Het hoeft niet zo te gaan.

Misschien werd de ontwikkelaars verteld dat ze een onschuldig autonoom systeem aan het ontwikkelen waren, maar degenen die de inspanning financierden of aanstuurden hadden andere doeleinden voor ogen. Misschien begon de inspanning voor het autonome systeem inderdaad onschuldig, maar toen de rekeningen moesten worden betaald, sloot de leiding een deal met een financieringsbron die de autonome systemen om snode redenen wilde hebben. Een andere mogelijkheid is dat de ontwikkelaars wisten dat een later gebruik misschien voor bewapening zou kunnen zijn, maar dat ze dachten dat ze die aangrijpende brug zouden oversteken wanneer en als die zich ooit zou voordoen. Enz.

Er zijn heel veel verschillende paden over hoe dit allemaal uitpakt.

Het is wellicht interessant dat ik in eerdere columns heb beschreven dat er een toenemend bewustzijn is over AI-ethiek met betrekking tot de dual-use elementen van hedendaagse AI, zie de link hier. Ik zal u kort op de hoogte brengen.

Een AI-systeem dat ten goede komt, kan soms op de rand van het kwade staan, misschien via een aantal vrij eenvoudige veranderingen, en wordt dienovereenkomstig beschouwd als een systeem dat voor tweeërlei gebruik geschikt is. Onlangs was er in het nieuws een AI-systeem dat is gebouwd om chemicaliën te ontdekken die mogelijk moordenaars zijn. De ontwikkelaars wilden er zeker van zijn dat we zulke slecht doordachte chemicaliën konden vermijden of er op onze hoede voor konden zijn. Blijkt dat de AI enigszins gemakkelijk kan worden aangepast om toegewijd die dodelijke chemicaliën te ontdekken en zo mogelijk slechteriken te laten weten welke soorten chemicaliën ze mogelijk kunnen bereiden voor hun verschrikkelijke kwade plannen.

Autonome systemen kunnen aantoonbaar in die dual-use-omgeving passen.

Tot op zekere hoogte is dat de reden waarom AI Ethics en Ethical AI zo'n cruciaal onderwerp is. De voorschriften van AI Ethics zorgen ervoor dat we waakzaam blijven. AI-technologen kunnen soms in beslag worden genomen door technologie, met name de optimalisatie van hightech. Ze houden niet per se rekening met de grotere maatschappelijke gevolgen. Het hebben van een AI-ethiek-mindset en dit integraal doen voor AI-ontwikkeling en fielding is van vitaal belang voor het produceren van geschikte AI, inclusief (misschien verrassend of ironisch genoeg) de beoordeling van hoe AI-ethiek door bedrijven wordt aangenomen.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen hardnekkig beweren dat we geen nieuwe wetten nodig hebben die betrekking hebben op AI en dat onze bestaande wetten voldoende zijn. Sterker nog, ze waarschuwen vooraf dat als we een aantal van deze AI-wetten doorvoeren, we de gouden gans zullen ondermijnen door de vooruitgang op het gebied van AI die enorme maatschappelijke voordelen biedt, aan banden te leggen.

De autonomie en het wapen als twee voorschriften

Er is een slogan die sommigen gebruiken om te waarschuwen voor allerlei soorten bewapende autonome systemen, die collectief worden bedacht als slachtbots.

Dit brengt een bijkomend aspect naar voren waar we over moeten nadenken.

Moet een autonoom wapensysteem en/of een autonoom systeem dat is bewapend een dodelijk of moordend robotoverwicht hebben?

Sommigen zouden beweren dat we dat beslist kunnen hebben niet-dodelijke ook bewapende autonome systemen. Vanuit dat oogpunt lijkt het dus volkomen ongepast om bewoordingen als slachtbots of killerrobots te gebruiken. Een niet-dodelijke variant zou vermoedelijk in staat zijn schade te beperken of teweeg te brengen die geen dodelijk gevolg heeft. Dergelijke systemen zijn niet dodelijk, maar hebben een minder groot vermogen om schade te veroorzaken. Overdrijf de capaciteiten niet, zeggen degenen die volhouden dat we ons niet bezig hoeven te houden met een regelrechte moordmachine-trope.

We kunnen dus dit hebben:

  • Dodelijke autonome wapensystemen
  • Dodelijke autonome systemen die zijn bewapend
  • Niet-dodelijke autonome wapensystemen
  • Niet-dodelijke autonome systemen die zijn bewapend

Het tegenargument is natuurlijk dat elk autonoom systeem dat bewapend is, het potentieel lijkt te hebben om naar het dodelijke rijk te glijden, ook al is het zogenaamd alleen bedoeld voor gebruik op niet-dodelijke basis. De stapsgewijze twee stappen om van niet-dodelijk naar dodelijk te gaan, zullen snel worden uitgevoerd zodra je al een wapen in handen hebt in een autonoom systeem. Het zou moeilijk zijn om een ​​ijzersterke garantie te bieden dat het niet-dodelijke niet in de dodelijke arena zal zijn beland (hoewel sommigen dat wel proberen, in een wiskundige schijn).

Voordat we veel verder ingaan op dit algemene onderwerp van autonome systemen en bewapening, is het misschien handig om op iets anders te wijzen dat, hoewel misschien voor de hand liggend, niet noodzakelijkerwijs zichtbaar bovenaan onze agenda staat.

Hier is:

  • Er is een AI-aspect dat essentieel is voor het autonome systeem
  • Er is een wapenaspect dat de wapenkant van deze vergelijking is
  • De AI kan ook verbonden zijn met het wapentuig

Laten we dat uitpakken.

We zullen aannemen dat de hedendaagse autonome systemen AI nodig hebben als het onderliggende geautomatiseerde middel om de autonome facetten naar voren te brengen. Ik noem dit omdat je zou kunnen proberen te beargumenteren dat we niet-AI-gerelateerde technologieën en technieken zouden kunnen gebruiken om de autonome systemen te realiseren, wat weliswaar waar is, maar steeds minder waarschijnlijk lijkt. Kortom, AI heeft de neiging om een ​​grotere mate van autonomie mogelijk te maken, en de meeste maken dienovereenkomstig gebruik van AI-hightech.

Oké, dus we hebben een op AI gebaseerde mogelijkheid die op de een of andere manier in het autonome systeem is ingebed en die fungeert om het autonome systeem te sturen en te controleren.

Houd dat als vuistregel binnen handbereik.

Het lijkt overduidelijk dat we ook een of andere vorm van wapentuig nodig hebben. Waarom bespreken we hier anders het onderwerp van autonome systemen? en wapens. Dus ja, er is duidelijk een of ander wapen.

Ik ga niet dieper in op het soort wapentuig dat zou kunnen worden gebruikt. Je kunt eenvoudig alle wapens vervangen die in je opkomen. Mogelijk zijn er nauwkeurige wapens aanwezig. Er zouden massagerichte destructieve wapens kunnen bestaan. Het kan iets zijn met kogels of projectielen. Het kan iets zijn dat chemicaliën of vluchtige atomaire componenten bevat. De lijst is eindeloos.

De aanvullende overweging is of AI al dan niet verbonden is met wapens. De AI neemt misschien alleen maar de wapens mee voor een ritje. In het geval van de vierpotige robot die een pistool afvuurde, wordt het pistool misschien afgevuurd door een mens die een afstandsbediening heeft die is verbonden met het activeren van het wapen. De hondachtige robot navigeert door een scène en dan is het aan een mens op afstand om de trekker over te halen.

Aan de andere kant kan de AI als het ware de trekker overhalen. De AI is mogelijk ontworpen om niet alleen te navigeren en te manoeuvreren, maar ook om het wapen te activeren. In die zin doet de AI alles van A tot Z. Er is geen afhankelijkheid van een mens op afstand om de wapenkundige kant van de zaak uit te voeren. De AI is geprogrammeerd om dat in plaats daarvan te doen.

Om dit specifieke gebruiksscenario van autonome systemen die bewapend zijn te verduidelijken, hebben we dit soort mogelijkheden:

  • Autonoom systeem: AI bestuurt het autonome systeem geheel zelfstandig
  • Autonoom systeem: AI bestuurt het autonome systeem, maar een mens-in-the-loop kan ook ingrijpen
  • Wapens: Een mens op afstand bestuurt de wapens (de AI doet dat niet)
  • Wapens: AI beheert de wapens, maar een mens-in-the-loop kan ook ingrijpen
  • Wapens: AI beheert de wapens volledig zelf

Ik heb eerder de variaties besproken van het hebben van een mens-in-de-loop met betrekking tot autonome systemen en autonome voertuigen de link hier.

Als je naar die leuke video's kijkt van de dansende en steigerende vierpotige robots, worden ze meestal verondersteld robots te zijn die uitsluitend door de AI bestuurd worden (nou ja, dat is de gewoonte of wordt als de juiste etiquette beschouwd onder degenen die diepzinnig zijn in deze zaken). Dat zou je ook terecht kunnen veronderstellen. Dat weet je uiteraard niet zeker. Het kan zijn dat een menselijke operator op afstand de robots begeleidt. Er is ook een mogelijkheid dat de AI een deel van de begeleiding doet, en een menselijke operator op afstand doet dat ook, misschien wel om de AI te helpen als de robot in een lastige positie komt en geen haalbare manier kan berekenen om zichzelf vrij te bewegen.

De essentie hier is dat er talloze manieren zijn waarop AI en autonome systemen en bewapening met elkaar kunnen worden vermengd. Sommigen hebben AI die het autonome systeem bestuurt, maar niet de wapens. Een mens bestuurt misschien op afstand de wapens. Een andere invalshoek is dat de wapens misschien van tevoren worden geactiveerd en dat het autonome systeem het geactiveerde wapen aflevert, waardoor de AI niet per se rechtstreeks deelnam aan het activeren van het wapen en in plaats daarvan fungeerde als een bestelvoertuig. En het zou kunnen dat de AI een spreekwoordelijke alleskunner is en ook het hele scala aan autonome systeemaspecten aan het wapengebruik toevoegt.

Kies maar.

Weet intussen dat de mens-in-de-loop een grote factor is als het gaat om debatten over dit onderwerp.

Een scheidslijn voor sommigen is dat als de AI het richten en schieten doet (of wat het wapen ook inhoudt), het hele uitrusting en niets is overgestoken naar no-no-land. Dit verschilt schijnbaar van de conventionele vuur-en-vergeet-wapens die een vooraf gerichte, door de mens bepaalde selectie hebben, zoals een patrouillerende drone die een raket gereed heeft om te schieten op een doelwit dat was al gekozen door een mens.

Sommigen vragen zich af waarom autonome systemen die bewapend zijn, niet altijd een mens in de lus zouden omvatten gedurende het hele proces waarin het autonome systeem actief aan de gang is. Het lijkt erop dat we beter af zouden zijn als een strenge eis zou zijn dat al dergelijke bewapende autonome systemen een mens in de loop zouden moeten hebben, die dit doet voor de bediening van het autonome systeem of voor het bedienen van de wapens (of voor beide). . Het lijkt misschien heel verstandig om een ​​veronderstelde, zekere en stabiele menselijke hand in deze AI-mix te houden.

Bereid u voor op een lange lijst met redenen waarom dit niet noodzakelijkerwijs haalbaar is.

Overweeg deze moeilijkheden:

  • Human-in-the-loop is mogelijk niet snel genoeg om tijdig te reageren
  • Human-in-the-loop beschikt mogelijk niet over voldoende informatie om plichtsgetrouw te reageren
  • Human-in-the-loop is mogelijk niet beschikbaar op het gewenste moment
  • Human-in-the-loop kan besluiteloos zijn en niet handelen wanneer dat nodig is
  • Human-in-the-loop kan de ‘verkeerde’ beslissing nemen (relatief)
  • Human-in-the-loop is mogelijk niet op het benodigde moment toegankelijk vanuit het systeem
  • Human-in-the-loop kan in de war raken en overweldigd raken
  • Enz.

Je bent ongetwijfeld in de verleiding om naar die lijst van menselijke zwakheden en beperkingen te kijken en dan tot de plechtige conclusie te komen dat het kennelijk zinvol is om de ‘human-in-the-loop’ uit te bannen en in plaats daarvan altijd AI te gebruiken. Dit kan het uitsluiten van de mens-in-de-loop zijn, of misschien kan de AI een ingebakken mens-in-de-loop-ontwerp terzijde schuiven. Zie mijn analyse van hoe meningsverschillen tussen AI en een ‘human-in-the-loop’ tot precaire situaties kunnen leiden, beschreven op de link hier.

Vaak blijft een kleinerende lijst van dit soort real-time, op de mens gerichte nadelen op zichzelf staan, waardoor de indruk ontstaat dat de AI op de een of andere manier met sprongen vooruit moet gaan, een veel verstandiger keuze dan het hebben van een mens-in-de-lus . Trap niet in die verraderlijke val. Er zijn ontnuchterende afwegingen bij betrokken.

Overweeg deze gevolgen van de AI:

  • AI kan een fout tegenkomen waardoor het op een dwaalspoor raakt
  • AI kan overweldigd zijn en niet meer reageren
  • AI kan ontwikkelaarsbugs bevatten die grillig gedrag veroorzaken
  • AI kan beschadigd zijn met een geïmplanteerd kwaaddoenervirus
  • AI kan in realtime worden overgenomen door cyberhackers
  • AI kan vanwege de complexiteit als onvoorspelbaar worden beschouwd
  • AI kan rekenkundig de "verkeerde" beslissing nemen (relatief)
  • Enz.

Ik vertrouw erop dat je kunt zien dat er afwegingen zijn tussen het gebruik van een mens in de loop en het uitsluitend afhankelijk zijn van AI. Mocht u in de verleiding komen om te suggereren dat de kant-en-klare oplossing het gebruik van beide is, dan wil ik graag benadrukken dat u het beste van beide werelden kunt krijgen, maar ook het slechtste van beide werelden. Ga er niet van uit dat het altijd en zeker het beste van twee werelden zal zijn.

Je bent misschien enigszins verrast door een van de hierboven genoemde nadelen van AI, met name dat de AI dat zou kunnen zijn onvoorspelbaar. We zijn eraan gewend te geloven dat AI strikt logisch en wiskundig nauwkeurig moet zijn. Je zou dan ook kunnen verwachten dat de AI volledig voorspelbaar zal zijn. We worden verondersteld precies te weten wat AI gaat doen. Punt, einde van het verhaal.

Sorry dat ik de ballon laat barsten, maar deze mythe van voorspelbaarheid is een verkeerde benaming. De omvang en complexiteit van de moderne AI is vaak een moeras dat niet perfect voorspelbaar is. Dit is te zien in de ethische AI-ophef over sommige toepassingen van Machine Learning (ML) en Deep Learning (DL) van vandaag. Ik zal het even wat meer uitleggen.

Misschien wil je ook eens kijken naar mijn laatste analyse van de komende trends in de richting van het proberen te zorgen voor verifieerbare en wiskundig aantoonbaar correcte AI-systemen via de nieuwste ontwikkelingen op het gebied van AI-veiligheid, op de link hier.

Herkauwen over de regels van de weg

Ik had het begrip ‘doelen’ en ‘targeting’ genoemd, wat een tamelijk zwaar beladen stuk terminologie is dat bijzondere aandacht verdient.

We kunnen hierover nadenken:

  • Doelwitten die mensen zijn
  • Doelwitten die geen mensen zijn, maar levende wezens
  • Doelen die als eigendom worden opgevat

Stel dat we een autonoom systeem hebben dat bewapend is. De AI wordt gebruikt om het autonome systeem te sturen en voor wapens. De AI doet alles van A tot Z. Er is geen voorziening voor een mens-in-de-loop. Wat targeting betreft, zal de AI de doelen kiezen. Er is geen pre-targeting die door mensen is vastgesteld. In plaats daarvan is de AI geprogrammeerd om in het algemeen vast te stellen of er mensen zijn die het doelwit moeten zijn (misschien scannen op vijandige acties, bepaalde soorten uniformen, enzovoort).

Met mij hierover tot nu toe?

Dit scenario is vrijwel het scenario dat de meeste verontwaardiging veroorzaakt over bewapende autonome systemen.

De genoemde zorg is dat de AI (minstens) drie dingen doet die hij niet zou mogen doen:

  • Het richten van mensen als doelwit
  • Targeting zonder gebruik van een mens-in-de-loop
  • Mogelijk onvoorspelbaar handelenly

Merk op dat er nadrukkelijk melding wordt gemaakt van zorgen over de onvoorspelbaarheid van de AI. Het kan zijn dat hoewel de AI geprogrammeerd was om zich op bepaalde soorten mensen te richten, de AI-programmering niet is wat we dachten dat het was, en dat de AI zich uiteindelijk richt op ‘vriendschappelijke wedstrijden’ naast de wedstrijden die de AI verondersteld werd te interpreteren als ‘vijandige wedstrijden’. '(of misschien in plaats van). Bovendien zou de onvoorspelbaarheid van de AI, zelfs als we ervoor kiezen om een ​​human-in-the-loop-bepaling op te nemen, kunnen betekenen dat wanneer de AI geacht wordt te overleggen met de human-in-the-loop, zij er niet in slaagt dit te doen. dus en handelt zonder enige menselijke tussenkomst.

Misschien vindt u het interessant dat het Internationale Comité van het Rode Kruis (ICRC) een overkoepelend driepuntsstandpunt heeft geformuleerd over autonome wapensystemen, dat dieper ingaat op dit soort zorgen (volgens de ICRC-website):

1. “Onvoorspelbare autonome wapensystemen moeten uitdrukkelijk worden uitgesloten uit, met name vanwege hun willekeurige effecten. Dit zou het beste kunnen worden bereikt met een verbod op autonome wapensystemen die op een zodanige wijze zijn ontworpen of gebruikt dat de effecten ervan niet voldoende kunnen worden begrepen, voorspeld en verklaard.”

2. “In het licht van ethische overwegingen om de mensheid te beschermen en om de regels van het internationaal humanitair recht voor de bescherming van burgers en strijders buiten gevecht te handhaven, Het gebruik van autonome wapensystemen om mensen als doelwit te nemen moet worden uitgesloten. Dit zou het beste kunnen worden bereikt door een verbod op autonome wapensystemen die zijn ontworpen of gebruikt om geweld tegen personen toe te passen.”

3. “Om burgers en civiele objecten te beschermen, de regels van het internationaal humanitair recht te handhaven en de mensheid te beschermen, moet het ontwerp en het gebruik van autonome wapensystemen die niet verboden zouden zijn, worden gereguleerd, onder meer door een combinatie van: beperkingen op het soort doelwitten, zoals het beperken ervan tot objecten die van nature militaire doelen zijn; beperkingen op de duur, geografische reikwijdte en omvang van het gebruik, inclusief het mogelijk maken van menselijk oordeel en controle met betrekking tot een specifieke aanval; beperkingen op gebruikssituaties, zoals het beperken van hen tot situaties waarin geen burgers of civiele objecten aanwezig zijn; Rvereisten voor mens-machine-interactie, met name om effectief menselijk toezicht en tijdige interventie en deactivering te garanderen.”

In verband hiermee hebben de Verenigde Naties (VN) via het Verdrag inzake bepaalde conventionele wapens (CCW) in Genève elf niet-bindende leidende beginselen inzake dodelijke autonome wapens opgesteld, zoals blijkt uit het officiële rapport dat online is geplaatst (met verwijzingen naar relevante internationale humanitaire wapens). Wettelijke of IHR-bepalingen):

(a) het internationaal humanitair recht blijft volledig van toepassing op alle wapensystemen, met inbegrip van de mogelijke ontwikkeling en het gebruik van dodelijke autonome wapensystemen;

(b) De menselijke verantwoordelijkheid voor beslissingen over het gebruik van wapensystemen moet behouden blijven, aangezien de verantwoordelijkheid niet kan worden overgedragen aan machines. Hiermee moet gedurende de gehele levenscyclus van het wapensysteem rekening worden gehouden;

(c) Mens-machine-interactie, die verschillende vormen kan aannemen en in verschillende stadia van de levenscyclus van een wapen kan worden geïmplementeerd, moet ervoor zorgen dat het mogelijke gebruik van wapensystemen op basis van opkomende technologieën op het gebied van dodelijke autonome wapensystemen binnen de perken blijft naleving van het toepasselijke internationale recht, in het bijzonder het IHR. Bij het bepalen van de kwaliteit en omvang van mens-machine-interactie moet rekening worden gehouden met een reeks factoren, waaronder de operationele context en de kenmerken en mogelijkheden van het wapensysteem als geheel;

(d) Verantwoording voor het ontwikkelen, inzetten en gebruiken van elk opkomend wapensysteem in het kader van het CCW moet worden gegarandeerd in overeenstemming met het toepasselijke internationale recht, onder meer door de werking van dergelijke systemen binnen een verantwoordelijke keten van menselijk commando en controle;

(e) In overeenstemming met de verplichtingen van staten onder internationaal recht moet bij de studie, ontwikkeling, verwerving of toepassing van een nieuw wapen, middel of methode van oorlogvoering worden bepaald of het gebruik ervan in sommige of alle omstandigheden verboden door internationaal recht;

(f) Bij het ontwikkelen of verwerven van nieuwe wapensystemen op basis van opkomende technologieën op het gebied van dodelijke autonome wapensystemen, fysieke beveiliging, passende niet-fysieke waarborgen (waaronder cyberbeveiliging tegen hacking of data spoofing), het risico van overname door terroristische groeperingen en er moet rekening worden gehouden met het risico van proliferatie;

(g) Risicobeoordelingen en beperkende maatregelen moeten deel uitmaken van de ontwerp-, ontwikkelings-, test- en inzetcyclus van opkomende technologieën in alle wapensystemen;

(h) Er moet aandacht worden besteed aan het gebruik van opkomende technologieën op het gebied van dodelijke autonome wapensystemen bij het handhaven van de naleving van het IHR en andere toepasselijke internationale wettelijke verplichtingen;

(i) Bij het opstellen van mogelijke beleidsmaatregelen mogen opkomende technologieën op het gebied van dodelijke autonome wapensystemen niet worden vermenselijkt;

(j) Besprekingen en mogelijke beleidsmaatregelen die in het kader van de CCW worden genomen, mogen vooruitgang op het gebied van of toegang tot vreedzaam gebruik van intelligente autonome technologieën niet belemmeren;

(k) Het CCW biedt een passend kader voor het omgaan met de kwestie van opkomende technologieën op het gebied van dodelijke autonome wapensystemen binnen de context van de doelstellingen van het Verdrag, dat een evenwicht probeert te vinden tussen militaire noodzaak en humanitaire overwegingen.

Het dilemma waarin we ons bevinden

Deze verschillende oorlogswetten, wetten van gewapende conflicten of IHR (International Humanitarian Laws) dienen als een essentiële en altijd veelbelovende gids bij het overwegen van wat we zouden kunnen proberen te doen aan de komst van autonome systemen die bewapend zijn, hetzij door middel van keystone-ontwerp of door met methoden achteraf.

We kunnen oprecht wensen dat een verbod op dodelijke bewapende autonome systemen strikt en gehoorzaam wordt nageleefd. Het probleem is dat er binnen de meest oprechte verboden ongetwijfeld veel bewegingsruimte te vinden is. Zoals ze zeggen: regels zijn er om gebroken te worden. Je kunt er zeker van zijn dat waar de zaken losjes zijn, het gespuis gaten zal opsporen en zal proberen zich een weg te banen door de regels.

Hier zijn enkele mogelijke mazen die het overwegen waard zijn:

  • Claims van niet-dodelijk. Maken niet-dodelijke autonome wapensystemen (schijnbaar oké omdat het buiten de verbodsgrens ligt), die je vervolgens in een handomdraai dodelijk kunt maken (je zult pas op het laatste moment buiten het verbod komen).
  • Claims van alleen autonoom systeem. Handhaaf het verbod door geen dodelijk gerichte autonome systemen te maken, terwijl u zoveel mogelijk vooruitgang boekt bij het bedenken van alledaagse autonome systemen die (nog) niet bewapend zijn, maar die u op een dubbeltje kunt ombouwen tot bewapening.
  • Claims van niet geïntegreerd als één. Creëer autonome systemen die helemaal niet bewapend zijn, en als de tijd daar is, meeliftende bewapening, zodat je heftig kunt proberen te beargumenteren dat het twee afzonderlijke elementen zijn en daarom kunt beweren dat ze niet binnen de noemer van een alles-in-één vallen. autonoom wapensysteem of zijn neef.
  • Beweert dat het niet autonoom is. Maak een wapensysteem dat geen autonome capaciteiten lijkt te hebben. Laat in dit vermoedelijk niet-autonome systeem ruimte voor het laten vallen van op AI gebaseerde autonomie. Sluit indien nodig de autonomie aan en je bent klaar om te gaan (tot die tijd heb je schijnbaar het verbod niet overtreden).
  • Overige

Er zijn tal van andere geuite moeilijkheden bij het proberen om dodelijke autonome wapensystemen ronduit te verbieden. Ik zal er nog een paar behandelen.

Sommige experts beweren dat een verbod niet bijzonder nuttig is en dat er in plaats daarvan regelgevende bepalingen moeten zijn. Het idee is dat deze constructies zijn toegestaan, maar streng worden gecontroleerd. Er wordt een litanie van rechtmatig gebruik uiteengezet, samen met wettige manieren van targeting, wettige soorten capaciteiten, wettige evenredigheid en dergelijke.

Volgens hen is een regelrechte ban zoiets als je kop in het zand steken en doen alsof de olifant in de kamer niet bestaat. Deze bewering doet echter het bloed koken van degenen die tegenspreken met het argument dat je door een verbod in te stellen de anders verleiding om dit soort systemen na te streven drastisch kunt verminderen. Zeker, sommigen zullen pronken met het verbod, maar hopelijk zullen de meeste dat niet doen. U kunt dan uw aandacht richten op de pronkstukken en hoeft uw aandacht niet naar iedereen te versplinteren.

Rond en rond gaan deze debatten.

Een andere vaak genoemde zorg is dat zelfs als het goede zich aan het verbod houdt, het slechte dat niet zal doen. Dit brengt het goede in een belabberde houding. De slechten zullen dit soort bewapende autonome systemen hebben en de goeden niet. Als eenmaal aan het licht komt dat de slechten ze hebben, zal het voor de goeden te laat zijn om hun achterstand in te halen. Kortom, het enige slimme wat je kunt doen is je voorbereiden om vuur met vuur te bestrijden.

Er is ook nog de klassieke afschrikkingsstrijd. Als de goeden ervoor kiezen om bewapende autonome systemen te maken, kan dit worden gebruikt om de slechten ervan te weerhouden een gevecht aan te gaan. Ofwel zullen de goeden beter bewapend zijn en zo de slechten afschrikken, ofwel zullen de goeden klaar zijn wanneer de slechten misschien onthullen dat zij deze systemen al die tijd heimelijk hebben bedacht.

Een tegenwicht voor deze counters is dat je door bewapende autonome systemen te maken, een wapenwedloop voert. De andere kant zal proberen hetzelfde te hebben. Zelfs als ze technologisch niet in staat zijn om dergelijke systemen opnieuw te creëren, zullen ze nu in staat zijn om de plannen van de "goede" te stelen, de hightech lef te reverse-engineeren of alles na te bootsen wat ze lijken te zien als een beproefd en waar manier om de klus te klaren.

Aha, sommigen antwoorden, dit alles zou kunnen leiden tot een vermindering van conflicten door een schijn van wederzijdse betrokkenheid. Als kant A weet dat kant B die dodelijke wapens van het autonome systeem heeft, en kant B weet dat kant A ze heeft, kunnen ze misschien niet met elkaar in botsing komen. Dit heeft die duidelijke uitstraling van wederzijds verzekerde vernietiging (MAD) -vibes.

En ga zo maar door.

De AI in de autonomie

Laten we ervoor zorgen dat we op dezelfde lijn zitten over de aard van de hedendaagse AI.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Wees heel voorzichtig met het antropomorfiseren van de hedendaagse AI.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Met die toegevoegde fundamentele achtergrond keren we opnieuw naar het onderwerp autonome systemen en bewapening. We hebben eerder gezien dat de AI de autonome systeemcomponent binnengaat en ook de bewapeningscomponent kan betreden. De AI van vandaag is niet bewust. Dit is het waard om te herhalen en ik zal dit benadrukken voor meer inzicht in deze zaken.

Laten we enkele scenario's onderzoeken om te zien hoe dit een cruciale overweging is. Ik zal even de oorlogsoriëntatie op dit onderwerp achterwege laten en laten zien hoe dit doordringt in veel andere sociale milieus. Zorg ervoor dat u dienovereenkomstig stabiel blijft.

Een op AI gebaseerd autonoom systeem, zoals een autonoom voertuig waarvan we zullen zeggen dat het helemaal niets met wapens te maken heeft, baant zich een weg door een normale omgeving. Er komt een mens langs om gebruik te maken van het autonome voertuig. De persoon is gewapend met een onheilspellend wapen. Neem ter wille van de discussie in dit specifieke scenario aan dat de persoon iets onaangenaams in gedachten heeft. De persoon stapt in het autonome voertuig (met zijn wapen, verborgen of niet verborgen, hoe dan ook).

Het autonome voertuig rijdt naar elke bestemming die de berijder heeft aangevraagd. In dit geval vervoert de AI deze passagier eenvoudigweg programmatisch van de ene ophaallocatie naar een aangewezen bestemming, net zoals het elke dag mogelijk tientallen of honderden ritten heeft gedaan.

Als dit een menselijke bestuurder en een door mensen bestuurd voertuig was geweest, bestaat er vermoedelijk een kans dat de menselijke bestuurder zich zou realiseren dat de passagier gewapend is en ongewenste bedoelingen lijkt te hebben. De menselijke bestuurder zou kunnen weigeren het voertuig te besturen. Of de menselijke chauffeur zou naar het politiebureau kunnen rijden. Of misschien probeert de menselijke bestuurder de gewapende passagier te bedwingen (er zijn gevallen bekend) of de passagier ervan te weerhouden zijn wapen te gebruiken. Het is behoorlijk ingewikkeld en er kunnen allerlei variaties bestaan. Het zou moeilijk zijn om te beweren dat er maar één juist antwoord is om een ​​dergelijke hachelijke situatie op te lossen. Helaas is de situatie vervelend en uiteraard gevaarlijk.

Het is in dit geval onwaarschijnlijk dat de AI voor dit soort mogelijkheden is geprogrammeerd. Kortom, de gewapende passagier zou tijdens de rit zijn wapen kunnen gebruiken vanuit het autonome voertuig. Het AI-aandrijfsysteem zal blijven rijden en het autonome voertuig zal richting de aangegeven bestemming van de passagier blijven rijden (ervan uitgaande dat de bestemming niet anderszins als buiten de grenzen wordt beschouwd).

De meeste hedendaagse AI-aandrijfsystemen zouden zich alleen computationeel concentreren op de rijbaan en niet op de inspanningen van de rijder.

Het kan nog erger worden dan dit.

Stel dat iemand een aantal boodschappen wil laten vervoeren naar een plaats waar extra voedsel voor de behoeftigen wordt meegenomen. De persoon vraagt ​​om een ​​autonoom voertuig en plaatst de tassen met boodschappen op de achterbank van het voertuig. Ze gaan niet mee en gebruiken alleen het autonome voertuig om de voedselzakken voor hen af ​​te leveren.

Lijkt prima.

Stel je voor dat een lafhartig persoon ervoor kiest om een ​​of andere vorm van bewapening in het autonome voertuig te plaatsen, in plaats van het vreedzamere idee van boodschappentassen. Ik denk dat je wel kunt raden wat er zou kunnen gebeuren. Dit is een zorg die ik herhaaldelijk heb aangekaart in mijn columns en waarschuwde dat we er vroeg of laat mee om moeten gaan.

Eén antwoord op dit soort scenario’s is dat misschien alle autonome voertuigen geprogrammeerd kunnen worden om gebruik te maken van hun camera’s en andere sensoren om te proberen te detecteren of een potentiële passagier gewapend is en snode bedoelingen heeft. Misschien zou de AI hiervoor geprogrammeerd zijn. Of de AI waarschuwt elektronisch en stil een menselijke operator op afstand, die vervolgens via de camera's de passagier visueel of op andere wijze onderzoekt en mogelijk met hem communiceert. Het maakt allemaal deel uit van een complex en potentieel hardnekkig blikje wormen, zodat het intense privacyproblemen en een overvloed aan andere potentiële ethische AI-problemen met zich meebrengt. Zie mijn dekking op de link hier.

Een ander enigszins verwant alternatief is dat de AI een soort ingebedde ethische programmering bevat die probeert de AI in staat te stellen ethische of morele oordelen te vellen die normaal gesproken voorbehouden zijn aan menselijke besluitvormers. Ik heb dit soort in AI ingebedde voorspellers van computationele ethiek onderzocht de link hier en de link hier.

Als we teruggaan naar een slagveldscenario, stel je dan voor dat een dodelijk autonoom wapensysteem boven een gevechtszone zweeft. De AI bestuurt het autonome systeem. De AI bedient de wapens aan boord. We hadden eerder de mogelijkheid bedacht dat de AI zou kunnen worden geprogrammeerd om te scannen op schijnbaar vijandige bewegingen of andere indicatoren van menselijke doelen die als geldige strijders worden beschouwd.

Moet dezelfde AI een soort ethisch georiënteerde component hebben die ernaar streeft om op computationele wijze te overwegen wat een mens-in-de-loop zou kunnen doen, in zekere zin handelend in plaats van een mens-in-de-loop?

Sommigen zeggen ja, laten we dit nastreven. Sommigen deinzen vol afgrijzen terug en zeggen dat het óf onmogelijk is, óf op een andere manier de heiligheid van de mensheid schendt.

Nog een blikje wormen.

Conclusie

Voor degenen onder u die geïnteresseerd zijn in dit onderwerp: er valt nog veel meer te bespreken.

Ik zal je een voorproefje geven van een lastig raadsel.

Normaal gesproken verwachten we dat een mens uiteindelijk verantwoordelijk wordt gehouden voor alles wat er in oorlogstijd gebeurt. Als AI een autonoom wapensysteem bestuurt of een autonoom systeem bestuurt dat mogelijk is bewapend, en dit systeem doet iets op het slagveld waarvan wordt aangenomen dat het gewetenloos is, wie of wat kan hiervan de schuld krijgen?

Je zou kunnen betogen dat AI verantwoordelijk moet worden gehouden. Maar zo ja, wat betekent dat dan precies? We beschouwen de huidige AI nog niet als de belichaming van rechtspersoonlijkheid, zie mijn uitleg op de link hier. In het geval van de AI wordt de staart niet op de ezel vastgezet. Als AI op een dag bewust wordt, kun je dat misschien proberen. Tot die tijd is dit een beetje een bereik (plus, aan wat voor soort straffen of repercussies zou de AI onderworpen zijn, zie mijn analyse op de link hier en de link hier, bijvoorbeeld).

Als de AI niet de verantwoordelijke verdachte is, zouden we natuurlijk kunnen zeggen dat welke mens of mensen de AI dan ook hebben bedacht, ter verantwoording moet worden geroepen. Kun je dit doen als de AI alleen maar een autonoom systeem beheerde en er mensen langskwamen die het koppelden aan bewapening? Ga jij achter de AI-ontwikkelaars aan? Of degenen die de AI hebben ingezet? Of gewoon de bewapenende acteur?

Ik vertrouw erop dat u het idee krijgt dat ik in mijn hartelijke discussie slechts het topje van de ijsberg heb aangeraakt.

Laten we voor nu doorgaan met het afronden van deze verhandeling. Je herinnert je misschien dat John Lyly binnenkwam Euphues: de anatomie van wit verklaarde in 1578 gedenkwaardig dat alles eerlijk is in liefde en oorlog.

Zou hij de opkomst van autonome wapensystemen en de eveneens komst van autonome systemen met bewapening in gedachten hebben gehad?

We moeten dit zeker meteen bovenaan onze gedachten plaatsen.

Bron: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- wapensystemen-en-de-exploitatie-van-AI-aangedreven-autonome-systemen-die-duivels-bewapend zijn/