AI-ethiek en AI-wet stellen harde vragen over die nieuwe belofte door robotmakers te dansen die zeggen dat ze AI-wapens zullen afwenden

Misschien heb je vorige week in het nieuws gezien of op sociale media de aangekondigde belofte opgemerkt door sommige robotfabrikanten over hun beweerde doelen om AI-bewapening van robots voor algemeen gebruik te voorkomen. Ik zal je zo meteen door de details leiden, dus maak je geen zorgen als je nog geen lucht van de zaak had gekregen.

De reactie op deze proclamatie was snel en, misschien zoals gebruikelijk in onze gepolariseerde samenleving, zowel lovend als soms spottend kritisch of ronduit smerig sceptisch.

Het is een verhaal van twee werelden.

In één wereld zeggen sommigen dat dit precies is wat we nodig hebben verantwoordelijk AI-robotontwikkelaars om aan te geven.

Godzijdank dat je aan de goede kant staat van een probleem dat geleidelijk zichtbaarder en zorgwekkender zal worden. Die schattige dansrobots zijn verontrustend omdat het vrij eenvoudig is om ze te veranderen om wapens te dragen en op de slechtste manieren te gebruiken (je kunt dit zelf controleren door naar sociale media te gaan en er zijn overvloedig video's met dansende robots gewapend met machinegeweren en andere bewapening).

De andere kant van deze medaille zegt dat de zogenaamde belofte niets meer is dan een marketing- of public relations-truc (terzijde, kent iemand het verschil tussen een belofte en een donatie?). Hoe dan ook, de twijfelaars vermanen dat dit ongebreidelde deugdsignalering is in de context van dansende robots. Zie je, klagen over het feit dat robots voor algemene doeleinden kunnen worden bewapend, is zeker een waardevolle en serieus gezochte overweging, hoewel alleen beweren dat een maker dit niet zal doen, waarschijnlijk een holle belofte is, beweren sommigen.

Al met al brengt de hele kwestie nogal wat overwegingen met zich mee van AI Ethics en AI Law. We zullen het onderwerp minutieus uitpakken en zien hoe dit een dubbele klap is van een ethisch en juridisch AI-moeras. Voor mijn doorlopende en uitgebreide verslaggeving over AI-ethiek en AI-recht, zie: de link hier en de link hier, om er een paar te noemen.

Ik zal in deze discussie ook verwijzen naar mijn eerdere analyses van de gevaren van AI-bewapening, zoals mijn diepgaande beoordeling op de link hier. Misschien wil je dat discours eens bekijken voor meer details achter de schermen.

De open brief die een blik wormen opent

Laten we deze analyse beginnen met een zorgvuldige stapsgewijze verkenning van de Open Brief die onlangs is gepubliceerd door zes relatief bekende geavanceerde robotmakers, namelijk Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics en Unitree. Over het algemeen vermoed ik dat je vooral de Boston Dynamics-robots hebt gezien, zoals degenen die op handen en voeten rondhuppelen. Ze zien eruit alsof ze hondachtig zijn en we genieten ervan ze rond te zien rennen.

Zoals ik eerder en herhaaldelijk heb gewaarschuwd, is het gebruik van dergelijke 'dansende' robots als een middel om het grote publiek ervan te overtuigen dat deze robots schattig en schattig zijn helaas misleidend en belandt in de overvloedige valkuilen van het antropomorfiseren ervan. We beginnen te denken aan deze geharde stukken metaal en plastic alsof ze het equivalent zijn van een knuffelige, loyale hond. Onze bereidheid om deze robots te accepteren is gebaseerd op een vals gevoel van veiligheid en zekerheid. Natuurlijk moet je geld verdienen en de kans dat je dat doet wordt vergroot door rond dansende robots te paraderen, maar helaas wordt het echte feit weggelaten of schijnbaar verhuld dat deze robots robots zijn en dat de AI die de robots bestuurt, verkeerd kan worden ontworpen of mis gaan.

Overweeg deze vertakkingen van AI (uittreksel uit mijn artikel over AI-bewapening, te vinden op: de link hier):

  • AI kan een fout tegenkomen waardoor het op een dwaalspoor raakt
  • AI kan overweldigd zijn en niet meer reageren
  • AI kan ontwikkelaarsbugs bevatten die grillig gedrag veroorzaken
  • AI kan beschadigd zijn met een geïmplanteerd kwaaddoenervirus
  • AI kan in realtime worden overgenomen door cyberhackers
  • AI kan vanwege de complexiteit als onvoorspelbaar worden beschouwd
  • AI kan rekenkundig de "verkeerde" beslissing nemen (relatief)
  • Enz.

Dat zijn punten met betrekking tot AI die van het type is dat echt is bedacht om het juiste te doen.

Bovenop deze overwegingen moet u AI-systemen die vanaf het begin zijn gemaakt, opnemen om slechte dingen te doen. U kunt AI hebben die is gemaakt voor nuttige doeleinden, vaak aangeduid als: AI voorgoed. Je kunt ook AI hebben die opzettelijk is gemaakt voor slechte doeleinden, ook wel bekend als AI voor slecht. Verder kun je AI voorgoed dat is gecorrumpeerd of omgevormd tot worden AI voor slecht.

Trouwens, dit heeft niets te maken met het bewust worden van AI, wat ik noem omdat sommigen blijven roepen dat de AI van vandaag ofwel bewust is of op het punt staat om bewust te worden. Niet zo. Ik haal die mythen uit elkaar in mijn analyse op de link hier.

Laten we er dan voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild zouden speculeren over bewuste AI, zou deze discussie een radicaal andere richting kunnen uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens. Sterker nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Ik zou sterk willen voorstellen dat we de zaken nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Wees heel voorzichtig met het antropomorfiseren van de hedendaagse AI.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonafstemmingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit alles heeft met name belangrijke implicaties voor AI-ethiek en biedt een handig venster op de geleerde lessen (zelfs voordat alle lessen zijn getrokken) als het gaat om het proberen om AI wetgeving te maken.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen vooraf dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die verschillende landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI Ethics-begrippen. Zoals eerder hierin is benadrukt, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Nu ik een nuttige basis heb gelegd om in de Open Brief te komen, zijn we klaar om erin te duiken.

De officiële onderwerptitel van de Open Brief is deze:

  • "Een open brief aan de robotindustrie en onze gemeenschappen: robots voor algemene doeleinden mogen niet worden bewapend” (volgens online gepost).

So far, so good.

De titel lijkt bijna op ijs en appeltaart. Hoe kan iemand dit betwisten als een vroegere oproep om AI-robotwapens te vermijden?

Lees verder om te zien.

Ten eerste, als voer voor overweging, hier is de officiële openingsparagraaf van de Open Brief:

  • “Wij zijn enkele van 's werelds toonaangevende bedrijven die zich toeleggen op het introduceren van nieuwe generaties geavanceerde mobiele robotica in de samenleving. Deze nieuwe generaties robots zijn toegankelijker, gemakkelijker te bedienen, autonomer, betaalbaarder en aanpasbaarder dan eerdere generaties, en kunnen navigeren naar locaties die voorheen ontoegankelijk waren voor geautomatiseerde of op afstand bestuurde technologieën. Wij zijn van mening dat geavanceerde mobiele robots grote voordelen zullen opleveren voor de samenleving als collega's in de industrie en metgezellen in onze huizen "(zoals online gepost).

De zonnige kant van de komst van dit soort robots is dat we kunnen anticiperen op een groot aantal grote voordelen. Geen twijfel daarover. Je hebt misschien een robot in huis die die Jetson-achtige activiteiten kan doen, zoals je huis schoonmaken, de afwas doen en andere klusjes in het huishouden. We zullen geavanceerde robots hebben voor gebruik in fabrieken en productiefaciliteiten. Robots kunnen potentieel kruipen of manoeuvreren in krappe ruimtes, zoals wanneer een gebouw instort en mensenlevens op het spel staan ​​om gered te worden. Enzovoort.

Even terzijde, misschien vind je mijn recente oogkritische berichtgeving over de Tesla AI Day, waarop een soort lopende robots door Elon Musk werd afgeschilderd als de toekomst voor Tesla en de samenleving, interessant, zie de link hier.

Terug naar de zaak. Wanneer we serieus praten over dansende robots of lopende robots, moeten we bewust rekening houden met afwegingen of de totale ROI (Return on Investment) van dit gebruik van AI. We moeten ons niet al te veel laten verleiden door voordelen als er ook kosten zijn.

Een glanzend nieuw speeltje kan nogal scherpe randen hebben.

Dit alles leidt tot een belangrijk maar enigszins stil punt dat een deel van de reden dat het AI-bewapeningsprobleem zich nu voordoet, te wijten is aan de vooruitgang van AI in de richting van autonome activiteit. We hadden gewoonlijk verwacht dat wapens over het algemeen door mensen worden bediend. Een mens neemt de beslissing om het wapen te vuren of in te schakelen. We kunnen die mens vermoedelijk verantwoordelijk houden voor hun daden.

AI die is ontworpen om autonoom te werken of die kan worden misleid om dit te doen, zou de mens schijnbaar uit de lus halen. De AI neemt vervolgens algoritmische beslissingen die kunnen leiden tot het doden of schaden van mensen. Naast de voor de hand liggende zorgen over een gebrek aan controle over de AI, heb je ook de scrupules dat we het misschien moeilijk hebben om de verantwoordelijkheid voor de acties van de AI vast te leggen. We hebben geen mens die onze duidelijke aanstichter is.

Ik realiseer me dat sommigen vinden dat we de AI eenvoudig en rechtstreeks verantwoordelijk moeten houden voor zijn acties, alsof AI het bewustzijn heeft bereikt of anderszins rechtspersoonlijkheid heeft gekregen (zie mijn berichtgeving over de debatten over AI die rechtspersoonlijkheid verwerft op de link hier). Dat gaat voorlopig niet lukken. We zullen de AI moeten traceren tot de mensen die het hebben bedacht of die het hebben uitgevoerd. Ze zullen ongetwijfeld proberen om legaal de verantwoordelijkheid te ontwijken door te beweren dat de AI verder ging dan ze zich hadden voorgesteld. Dit is een groeiende stelling waarmee we moeten omgaan (zie mijn AI Law-geschriften voor inzicht in de controversiële kwesties).

De Verenigde Naties (VN) hebben via het Verdrag inzake bepaalde conventionele wapens (CCW) in Genève elf niet-bindende leidende beginselen vastgesteld voor dodelijke autonome wapens, volgens het officiële rapport dat online is geplaatst (met verwijzingen naar het relevante internationale humanitaire recht of IHR-bepalingen) , inclusief:

(a) het internationaal humanitair recht blijft volledig van toepassing op alle wapensystemen, met inbegrip van de mogelijke ontwikkeling en het gebruik van dodelijke autonome wapensystemen;

(b) De menselijke verantwoordelijkheid voor beslissingen over het gebruik van wapensystemen moet behouden blijven, aangezien de verantwoordelijkheid niet kan worden overgedragen aan machines. Hiermee moet gedurende de gehele levenscyclus van het wapensysteem rekening worden gehouden;

(c) Mens-machine-interactie, die verschillende vormen kan aannemen en in verschillende stadia van de levenscyclus van een wapen kan worden geïmplementeerd, moet ervoor zorgen dat het mogelijke gebruik van wapensystemen op basis van opkomende technologieën op het gebied van dodelijke autonome wapensystemen binnen de perken blijft naleving van het toepasselijke internationale recht, in het bijzonder het IHR. Bij het bepalen van de kwaliteit en omvang van mens-machine-interactie moet rekening worden gehouden met een reeks factoren, waaronder de operationele context en de kenmerken en mogelijkheden van het wapensysteem als geheel;

(d) Verantwoording voor het ontwikkelen, inzetten en gebruiken van elk opkomend wapensysteem in het kader van het CCW moet worden gegarandeerd in overeenstemming met het toepasselijke internationale recht, onder meer door de werking van dergelijke systemen binnen een verantwoordelijke keten van menselijk commando en controle;

(e) In overeenstemming met de verplichtingen van staten onder internationaal recht moet bij de studie, ontwikkeling, verwerving of toepassing van een nieuw wapen, middel of methode van oorlogvoering worden bepaald of het gebruik ervan in sommige of alle omstandigheden verboden door internationaal recht;

(f) Bij het ontwikkelen of verwerven van nieuwe wapensystemen op basis van opkomende technologieën op het gebied van dodelijke autonome wapensystemen, fysieke beveiliging, passende niet-fysieke waarborgen (waaronder cyberbeveiliging tegen hacking of data spoofing), het risico van overname door terroristische groeperingen en er moet rekening worden gehouden met het risico van proliferatie;

(g) Risicobeoordelingen en beperkende maatregelen moeten deel uitmaken van de ontwerp-, ontwikkelings-, test- en inzetcyclus van opkomende technologieën in alle wapensystemen;

(h) Er moet aandacht worden besteed aan het gebruik van opkomende technologieën op het gebied van dodelijke autonome wapensystemen bij het handhaven van de naleving van het IHR en andere toepasselijke internationale wettelijke verplichtingen;

(i) Bij het opstellen van mogelijke beleidsmaatregelen mogen opkomende technologieën op het gebied van dodelijke autonome wapensystemen niet worden vermenselijkt;

(j) Besprekingen en mogelijke beleidsmaatregelen die in het kader van de CCW worden genomen, mogen vooruitgang op het gebied van of toegang tot vreedzaam gebruik van intelligente autonome technologieën niet belemmeren;

(k) Het CCW biedt een passend kader voor het omgaan met de kwestie van opkomende technologieën op het gebied van dodelijke autonome wapensystemen binnen de context van de doelstellingen van het Verdrag, dat een evenwicht probeert te vinden tussen militaire noodzaak en humanitaire overwegingen.

Deze en andere verschillende oorlogswetten en wetten van gewapende conflicten, of IHR (International Humanitarian Laws) dienen als een vitale en altijd veelbelovende gids om te overwegen wat we zouden kunnen doen aan de komst van autonome systemen die worden bewapend, hetzij door hoeksteen ontwerp of achteraf.

Sommigen zeggen dat we die autonome AI-systemen die bewapenbaar zijn, ronduit moeten verbieden. Dat klopt, de wereld moet voet bij stuk houden en stellig eisen dat autonome AI-systemen nooit bewapend mogen worden. Er komt een totaal verbod. Einde verhaal. Punt uit, punt.

Welnu, we kunnen oprecht wensen dat een verbod op dodelijke bewapende autonome systemen strikt en gehoorzaam zou worden nageleefd. Het probleem is dat er binnen een van de meest oprechte verboden ongetwijfeld veel speelruimte te vinden is. Zoals ze zeggen, regels zijn er om gebroken te worden. Je kunt er zeker van zijn dat waar dingen losjes zijn, gespuis gaten zal opsporen en zal proberen zich een weg te banen door de regels.

Hier zijn enkele mogelijke mazen die het overwegen waard zijn:

  • Claims van niet-dodelijk. Maak niet-dodelijke autonome wapensystemen (schijnbaar oké omdat het buiten de verbodsgrens ligt), die je dan in een dubbeltje kunt verschuiven om dodelijk te worden (je bent pas op het laatste moment voorbij het verbod).
  • Claims van alleen autonoom systeem. Handhaaf het verbod door geen dodelijk gerichte autonome systemen te maken, terwijl u zoveel mogelijk vooruitgang boekt bij het bedenken van alledaagse autonome systemen die (nog) niet bewapend zijn, maar die u op een dubbeltje kunt ombouwen tot bewapening.
  • Claims van niet geïntegreerd als één. Maak autonome systemen die helemaal niet bewapend zijn, en als de tijd daar is, kun je op de rug bewapenen zodat je heftig kunt proberen te beweren dat het twee afzonderlijke elementen zijn en daarom beweren dat ze niet onder de noemer van een alles-in-één vallen autonoom wapensysteem of zijn neef.
  • Beweert dat het niet autonoom is. Maak een wapensysteem dat niet van autonome capaciteiten lijkt te zijn. Laat ruimte in dit vermoedelijk niet-autonome systeem voor het binnenhalen van op AI gebaseerde autonomie. Sluit indien nodig de autonomie aan en je bent klaar om te rollen (tot dan toe overtrad je het verbod schijnbaar niet).
  • Overige

Er zijn tal van andere geuite moeilijkheden bij het proberen om dodelijke autonome wapensystemen ronduit te verbieden. Ik zal er nog een paar behandelen.

Sommige experts beweren dat een verbod niet bijzonder nuttig is en dat er in plaats daarvan regelgevende bepalingen moeten zijn. Het idee is dat deze constructies zijn toegestaan, maar streng worden gecontroleerd. Er wordt een litanie van rechtmatig gebruik uiteengezet, samen met wettige manieren van targeting, wettige soorten capaciteiten, wettige evenredigheid en dergelijke.

Volgens hen is een regelrechte ban zoiets als je kop in het zand steken en doen alsof de olifant in de kamer niet bestaat. Deze bewering doet echter het bloed koken van degenen die tegenspreken met het argument dat je door een verbod in te stellen de anders verleiding om dit soort systemen na te streven drastisch kunt verminderen. Zeker, sommigen zullen pronken met het verbod, maar hopelijk zullen de meeste dat niet doen. U kunt dan uw aandacht richten op de pronkstukken en hoeft uw aandacht niet naar iedereen te versplinteren.

Rond en rond gaan deze debatten.

Een andere veelgehoorde zorg is dat zelfs als de goeden zich aan het verbod houden, de slechten dat niet zullen doen. Dit plaatst het goede in een waardeloze houding. De slechte zullen dit soort bewapende autonome systemen hebben en de goede niet. Zodra dingen zijn onthuld dat de slechte ze hebben, zal het te laat zijn voor de goeden om ze in te halen. Kortom, het enige wat je moet doen, is je voorbereiden om vuur met vuur te bestrijden.

Er is ook de klassieke afschrikkingsstrijd. Als de goeden ervoor kiezen om bewapende autonome systemen te maken, kan dit worden gebruikt om de slechten ervan te weerhouden in een gevecht te raken. Ofwel zullen de goeden beter bewapend zijn en zo de slechten ontmoedigen, of de goeden zullen klaar zijn wanneer de slechten misschien onthullen dat ze deze systemen al die tijd heimelijk hebben bedacht.

Een tegenwicht voor deze counters is dat je door bewapende autonome systemen te maken, een wapenwedloop voert. De andere kant zal proberen hetzelfde te hebben. Zelfs als ze technologisch niet in staat zijn om dergelijke systemen opnieuw te creëren, zullen ze nu in staat zijn om de plannen van de "goede" te stelen, de hightech lef te reverse-engineeren of alles na te bootsen wat ze lijken te zien als een beproefd en waar manier om de klus te klaren.

Aha, een of andere repliek, dit alles zou kunnen leiden tot een vermindering van conflicten door een schijn van wederzijds. Als kant A weet dat kant B die dodelijke autonome systeemwapens heeft, en kant B weet dat kant A ze heeft, kunnen ze stil blijven zitten en niet in elkaar klappen. Dit heeft dat duidelijke aura van wederzijds verzekerde vernietiging (MAD) vibes.

En ga zo maar door.

Goed kijken naar de tweede alinea

We hebben hierin al veel behandeld en hebben tot nu toe alleen de eerste of openingsparagraaf van de Open Brief bekeken (er zijn in totaal vier paragrafen).

Tijd om de tweede alinea te bekijken, hier gaat u:

  • “Zoals met elke nieuwe technologie die nieuwe mogelijkheden biedt, biedt de opkomst van geavanceerde mobiele robots de mogelijkheid van misbruik. Onbetrouwbare mensen kunnen ze gebruiken om burgerrechten te schenden of om anderen te bedreigen, schade toe te brengen of te intimideren. Een gebied van bijzondere zorg is bewapening. Wij zijn van mening dat het toevoegen van wapens aan robots die op afstand of autonoom worden bediend, algemeen beschikbaar zijn voor het publiek en in staat zijn om te navigeren naar voorheen ontoegankelijke locaties waar mensen wonen en werken, nieuwe risico's op schade en ernstige ethische problemen met zich meebrengt. Bewapende toepassingen van deze nieuwe robots zullen ook het vertrouwen van het publiek in de technologie schaden op manieren die de enorme voordelen die ze voor de samenleving zullen opleveren, schaden. Om deze redenen ondersteunen we de bewapening van onze geavanceerde mobiliteitsrobots voor algemeen gebruik niet. Voor degenen onder ons die in het verleden over deze kwestie hebben gesproken en voor degenen die zich voor het eerst hebben beziggehouden, voelen we nu hernieuwde urgentie in het licht van de toenemende publieke bezorgdheid in de afgelopen maanden, veroorzaakt door een klein aantal mensen dat zichtbaar bekendheid heeft gegeven aan hun geïmproviseerde pogingen om commercieel beschikbare robots te bewapenen” (zoals online gepost).

Bij het lezen van die tweede paragraaf, hoop ik dat je kunt zien hoe mijn eerdere verhandeling hierin over AI-bewapening naar voren komt.

Laten we een paar aanvullende punten onderzoeken.

Een beetje een scrupules over een bepaald bewoordingsaspect dat de huidschilfers van sommigen heeft doen oplopen, is dat het verhaal lijkt te benadrukken dat "onbetrouwbare mensen" deze AI-robots zouden kunnen misbruiken. Ja, inderdaad, het kunnen slechte mensen of boosdoeners zijn die lafhartige daden teweegbrengen die AI-robots zullen "misbruiken".

Tegelijkertijd moeten we, zoals aan het begin van deze discussie werd opgemerkt, ook duidelijk maken dat de AI zelf mis kan gaan, mogelijk als gevolg van ingebouwde bugs of fouten en andere soortgelijke complicaties. De geuite zorg is dat alleen het benadrukken van de kans op onbetrouwbare mensen is dat het andere ongunstige mogelijkheden lijkt te negeren. Hoewel de meeste AI-bedrijven en -leveranciers het niet graag toegeven, is er een overvloed aan AI-systeemproblemen die de veiligheid en betrouwbaarheid van autonome systemen kunnen ondermijnen. Voor mijn berichtgeving over AI-veiligheid en de noodzaak van rigoureuze en aantoonbare waarborgen, zie: de link hierBijvoorbeeld.

Een ander opmerkelijk punt dat naar voren is gekomen bij degenen die de Open Brief hebben onderzocht, is de daarin opgenomen bewering dat het vertrouwen van het publiek in verband met AI-robots zou kunnen worden ondermijnd.

Aan de ene kant is dit een valide stelling. Als AI-robots worden gebruikt om kwaad te bieden, kun je er zeker van zijn dat het publiek behoorlijk gestoomd zal worden. Wanneer het publiek wordt gestoomd, kun je er zeker van zijn dat wetgevers in de aanval zullen springen en wetten zullen uitvaardigen die AI-robots en AI-robotfabrikanten aan banden leggen. Dit zou op zijn beurt de AI-robotica-industrie kunnen verlammen als de wetten alomvattend zijn en inspanningen met AI-robotische voordelen stopzetten. In zekere zin zou het kind met het badwater kunnen worden weggegooid (een oude uitdrukking, die het waarschijnlijk verdient om met pensioen te gaan).

De voor de hand liggende vraag die ook naar voren komt, is of deze bewering over het voorkomen van een afname van het vertrouwen van het publiek in AI-robots een enigszins egoïstisch credo is of dat het in het belang van ons allemaal is (kan het allebei zijn?).

Jij beslist.

We komen nu bij het bijzonder vlezige deel van de Open Brief:

  • “We beloven dat we onze geavanceerde mobiliteitsrobots voor algemeen gebruik of de software die we ontwikkelen die geavanceerde robotica mogelijk maakt, niet zullen bewapenen en we zullen anderen niet ondersteunen om dit te doen. Indien mogelijk zullen we de beoogde toepassingen van onze klanten zorgvuldig beoordelen om mogelijke bewapening te voorkomen. We beloven ook de ontwikkeling van technologische functies te onderzoeken die deze risico's kunnen verminderen of verminderen. Voor alle duidelijkheid: we gaan niet in op bestaande technologieën die landen en hun overheidsinstanties gebruiken om zichzelf te verdedigen en hun wetten te handhaven” (zoals online gepost).

We kunnen dit uitpakken.

Ga zitten en bereid je dienovereenkomstig voor.

Ben je klaar voor wat vurige polarisatie?

Positief is dat sommigen vocaal aankondigen dat deze AI-robotmakers zo'n belofte zouden doen. Het lijkt erop dat deze robotmakers gelukkig zullen proberen hun robots voor "geavanceerde mobiliteit voor algemeen gebruik" niet te bewapenen. Daarnaast zegt de Open Brief dat ze anderen die dat wel doen niet zullen steunen.

Critici vragen zich af of er sprake is van een slimme woordkunstenaar.

Waar begint en eindigt 'geavanceerde mobiliteit' bijvoorbeeld? Als een robotmaker een simpel-mobiliteit AI-robot in plaats van een geavanceerde (wat een ongedefinieerd stukje technisch jargon is), wordt dat uitgesloten van de reikwijdte van wat zal niet bewapend zijn? Het is dus blijkbaar oké om AI-robots met een eenvoudige mobiliteit te bewapenen, zolang ze niet zogenaamd zijn vergevorderd.

Hetzelfde geldt voor de formulering van robots voor algemeen gebruik. Als een AI-robot speciaal is ontworpen voor bewapening en daarom niet is, zullen we zeggen: voor algemeen gebruik robot, wordt dat een haalbare uitsluiting van de scope?

Je zou kunnen kibbelen met dit gekibbel en vurig beweren dat dit slechts een open brief is en geen juridisch document van vijftig pagina's waarin alle hoeken en gaten worden beschreven.

Dit brengt ons bij de schijnbaar meer twijfel op macroniveau die door sommigen wordt geuit. Wat betekent een "belofte" in wezen?

Sommigen vragen, waar is het rundvlees?

Een bedrijf dat een dergelijke belofte doet, lijkt dit te doen zonder enig echt belang in het spel. Als de top van een firma die zich aanmeldt voor deze belofte besluit de belofte niet langer na te komen, wat gebeurt er dan met die firma? Worden de leidinggevenden op staande voet ontslagen? Zal het bedrijf sluiten en zich uitgebreid verontschuldigen voor het schenden van de belofte? Enzovoort.

Voor zover kan worden afgeleid, is er geen specifieke sanctie of bestraffing voor elke schending van de belofte.

Je zou kunnen stellen dat er kans is op reputatieschade. Een pandgever kan op de markt worden betrapt omdat hij een toezegging heeft gedaan die het niet langer nakomt. Dit veronderstelt natuurlijk ook dat mensen zich herinneren dat de belofte is gedaan. Het gaat er ook van uit dat de schending van de belofte op de een of andere manier zal worden ontdekt (het lijkt duidelijk onwaarschijnlijk dat een bedrijf alles zal vertellen als het dit doet). De overtreder van de belofte zou moeten worden opgeroepen en toch zou een dergelijke kwestie alleen maar lawaai kunnen worden in de aanhoudende tsunami van nieuws over AI-robotica-makers.

Overweeg een andere hoek die naar voren is gekomen.

Een pandgevende firma wordt opgekocht door een grotere firma. Het grotere bedrijf kiest ervoor om de geavanceerde mobiliteitsrobots voor algemeen gebruik om te zetten in AI-bewapende versies.

Is dit een schending van de belofte?

Het grotere bedrijf kan volhouden dat het geen overtreding is, aangezien zij (het grotere bedrijf) de belofte nooit hebben gedaan. Ondertussen worden de onschadelijke AI-robots die het kleinere bedrijf heeft samengesteld en bedacht, en dit doet met schijnbaar de meest altruïstische bedoelingen, bijna van de ene op de andere dag vernieuwd tot bewapend.

Een soort ondermijning van de belofte, hoewel je zou kunnen zeggen dat het kleinere bedrijf niet wist dat dit op een dag zou gebeuren. Ze waren ernstig in hun verlangen. Het was buiten hun controle over wat het grotere inkoopbedrijf koos om te doen.

Sommigen vragen zich ook af of hier enige wettelijke aansprakelijkheid in zit.

Een pandbedrijf besluit over een paar maanden dat het de belofte niet nakomt. Ze zijn van gedachten veranderd. Kan het bedrijf worden vervolgd omdat het afstand heeft gedaan van de toezegging die het heeft gedaan? Wie zou aanklagen? Wat zou de basis zijn voor de rechtszaak? Er doen zich allerlei juridische problemen voor. Zoals ze zeggen, kun je vrijwel iedereen aanklagen, maar of je zegeviert, is een andere zaak.

Denk hier op een andere manier over na. Een pand dat in pand is gegeven, krijgt de kans om een ​​grote deal te sluiten door een hele reeks van zijn geavanceerde mobiliteitsrobots voor algemeen gebruik te verkopen aan een enorm bedrijf dat bereid is door de neus te betalen om de robots te krijgen. Het is een van die once-in-a-lifetime zillion-dollar aankoopdeals.

Wat moet het AI-roboticabedrijf doen?

Als het AI-roboticabedrijf openbaar wordt verhandeld, zouden ze vrijwel zeker proberen de verkoop te doen (hetzelfde kan worden gezegd van een particulier bedrijf, hoewel niet helemaal). Stel je voor dat de pandgevende firma bang is dat de koper zou proberen de robots te bewapenen, hoewel laten we zeggen dat er geen dergelijke discussie op tafel ligt. Het gerucht gaat dat de koper dit zou doen.

Dienovereenkomstig zet het pandgevende bedrijf in hun licentie dat de robots niet mogen worden bewapend. De koper verzet zich tegen deze taal en stapt weg van de aankoop.

Van hoeveel winst liep het toezeggende AI-roboticabedrijf net weg?

Is er een punt waarop de in-hand winst opweegt tegen de opname van een licentiebeperkingsvereiste (of misschien een wettelijke formulering van de beperking om speelruimte te bieden en toch de deal te laten plaatsvinden)? Ik denk dat je het dilemma kunt zien. Tal van dergelijke scenario's zijn gemakkelijk te bedenken. De vraag is of deze belofte tanden gaat krijgen. Zo ja, wat voor tanden?

Kortom, zoals aan het begin van deze discussie vermeld, zijn sommigen opgetogen dat dit soort beloften worden gedaan, terwijl anderen een vager standpunt innemen over de vraag of de belofte stand zal houden.

We gaan verder.

Een belofte gaan doen

De vierde en laatste alinea van de Open Brief zegt dit:

  • "We begrijpen dat onze inzet alleen niet voldoende is om deze risico's volledig aan te pakken, en daarom roepen we beleidsmakers op om met ons samen te werken om veilig gebruik van deze robots te bevorderen en misbruik ervan te verbieden. We roepen ook elke organisatie, ontwikkelaar, onderzoeker en gebruiker in de robotica-gemeenschap op om soortgelijke toezeggingen te doen om dergelijke robots niet te bouwen, te autoriseren, te ondersteunen of de bevestiging van wapens aan dergelijke robots mogelijk te maken. We zijn ervan overtuigd dat de voordelen voor de mensheid van deze technologieën ruimschoots opwegen tegen het risico van misbruik, en we zijn enthousiast over een mooie toekomst waarin mensen en robots zij aan zij werken om enkele van de uitdagingen van de wereld aan te pakken” (zoals online gepost).

Dit laatste deel van de Open Brief heeft een aantal extra elementen die de woede hebben opgewekt.

Een beroep doen op beleidsmakers kan goed of onverstandig zijn, beweren sommigen. Je zou beleidsmakers kunnen krijgen die niet thuis zijn in deze zaken, die dan de klassieke rush-to-judgment doen en wetten en regels opstellen die de vooruitgang op AI-robots overnemen. Volgens het eerder gemaakte punt zal de innovatie die de vooruitgang van AI-robotica voortstuwt misschien worden verstoord of tegengehouden.

Zorg ervoor dat je weet waar je om vraagt, zeggen de critici.

Het tegenargument is natuurlijk dat het verhaal duidelijk stelt dat beleidsmakers zouden moeten samenwerken met AI-roboticabedrijven om erachter te komen hoe ze vermoedelijk verstandig dergelijke wet- en regelgeving kunnen maken. Het tegenargument is dat de beleidsmakers zouden kunnen worden gezien als aanbidders van de AI-robotica-makers als ze tegemoet komen aan hun grillen. Het tegenargument is dat het natuurlijk een noodzaak is om samen te werken met degenen die kennis hebben van de technologie, anders loopt de uitkomst mogelijk uit de hand. Enz.

Op een misschien wat gekibbelde basis, sommigen hebben maagzuur over de lijn gehad dat iedereen oproept om soortgelijke toezeggingen te doen om niet Vastmaken wapens tot geavanceerde mobiliteitsrobots voor algemeen gebruik. Het sleutelwoord daar is het woord Vastmaken. Als iemand een AI-robot maakt die wapens bevat of naadloos inbouwt, lijkt dat de bewoording van Vastmaken iets. Je kunt het nu zien, iemand die heftig beweert dat het wapen niet is bevestigd, het is volledig een essentieel onderdeel van de AI-robot. Kom er overheen, roepen ze uit, we vallen niet binnen de reikwijdte van die belofte, en ze hadden zelfs anders kunnen zeggen dat ze dat wel waren.

Dit brengt een andere klacht naar voren over het gebrek aan plakkerigheid van de belofte.

Kan een firma of wie dan ook die ervoor kiest om deze toezegging te doen, zich op elk moment niet-verbonden verklaren dat ze dit willen doen en om welke reden dan ook?

Blijkbaar.

Er wordt veel gediscussieerd over het doen van toezeggingen en welke tractie ze uitstralen.

Conclusie

Yikes, zou je kunnen zeggen, deze bedrijven die proberen het juiste te doen, worden belazerd omdat ze proberen het juiste te doen.

Wat is er van onze wereld terechtgekomen?

Iedereen die zo'n belofte doet, zou het voordeel van de twijfel moeten krijgen, zou je hartstochtelijk kunnen volhouden. Ze stappen de publieke sfeer in om een ​​gedurfde en vitale bijdrage te leveren. Als we ze beginnen te besmeuren om dit te doen, zal het de zaken zeker erger maken. Niemand zal zo'n belofte willen doen. Bedrijven en anderen zullen het niet eens proberen. Ze zullen zich verstoppen en de samenleving niet van tevoren waarschuwen over waar die lieve dansende robots gevaarlijk in kunnen worden veranderd.

Sceptici beweren dat de manier om de samenleving wijs te maken andere acties met zich meebrengt, zoals het laten vallen van de fantasierijke daad van het presenteren van de dartelende dansende AI-robots. Of maak er in ieder geval een meer evenwichtige act van. Bijvoorbeeld, in plaats van alleen geliefde huisdier-trouwe honden na te bootsen, illustreer hoe de dansende robots meer verwant kunnen zijn aan wilde losgelaten boze wolven die mensen zonder enige aarzeling aan flarden kunnen scheuren.

Dat zal meer aandacht krijgen dan toezeggingen, smeken ze.

Toezeggingen kunnen ongetwijfeld een behoorlijk raadsel zijn.

Zoals Mahatma Gandhi welsprekend zei: "Hoe expliciet de belofte ook is, mensen zullen de tekst omdraaien en verdraaien om aan hun eigen doel te voldoen."

Misschien om hierin met een opbeurende noot af te sluiten, zei Thomas Jefferson dit over beloften: "We beloven elkaar wederzijds ons leven, ons fortuin en onze heilige eer."

Als het gaat om AI-robots, hun autonomie, hun bewapening en dergelijke, zullen we dit uiteindelijk allemaal samen doen. Onze wederzijdse belofte moet op zijn minst zijn dat we deze zaken op de voorgrond zullen houden, we zullen ernaar streven manieren te vinden om met deze vooruitgang om te gaan en op de een of andere manier onze weg te vinden om onze eer, ons fortuin en ons leven veilig te stellen.

Kunnen we dat toezeggen?

Ik hoop het.

Bron: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robot-makers-zeggen-ze-zullen-ai-wapens afwenden/