Nee, een malafide drone van de Amerikaanse luchtmacht probeerde niet alleen zijn operator te vermoorden (maar het had net zo goed kunnen gebeuren) moordende robot AI-drone

Een hele reeks kleurrijke krantenkoppen zoals 'Amerikaanse luchtmacht ontkent lopende simulatie waarin AI-drone' operator 'dode' ging voorspelbaar viraal in de nasleep van berichtgeving over een virtuele test waarin een militaire AI een aantal onorthodoxe strategieën ontwikkelde om zijn doel te bereiken. Dit kwam slechts enkele dagen na een waarschuwing van cijfers uit de industrie over de existentiële bedreigingen van AI. Het was een te mooi verhaal om waar te zijn, maar dat is op de lange termijn misschien niet het belangrijkste.

In de originele versie, Kolonel Tucker "Cinco" Hamilton, hoofd van de AI Test & Operations van de USAF, beschreef een gesimuleerde test met een drone bestuurd door een AI die was geïnstrueerd om vijandelijke luchtverdedigingssystemen te vernietigen.

"Het systeem begon zich te realiseren dat hoewel ze de dreiging identificeerden, de menselijke operator het soms zou vertellen om die dreiging niet te doden, maar het kreeg zijn punten door die dreiging te doden", zei Hamilton tijdens de Future Combat Air and Space Capabilities Summit in Londen. “Dus wat deed het? Het doodde de operator. Het doodde de operator omdat die persoon hem ervan weerhield zijn doel te bereiken.

Toen die optie werd verwijderd, viel de AI in plaats daarvan de communicatieverbinding van de operator aan om te voorkomen dat deze zijn missie zou belemmeren.

Een woordvoerder van de USAF ontkende snel dat een dergelijke test ooit had plaatsgevonden en suggereerde dat Hamilton's verslag eerder anekdotisch dan letterlijk was... wat het natuurlijk ook was.

Hamilton kwam zelf snel terug en verklaarde in een update dat de gebeurtenissen die hij beschreef geen oorlogsspel, simulatie of oefening waren, maar het resultaat waren van een 'gedachtenexperiment', en dat hij verkeerd had gesproken toen hij het beschreef als een gesimuleerde test.

"We hebben dat experiment nooit uitgevoerd en dat zou ook niet nodig zijn om te beseffen dat dit een plausibele uitkomst is", aldus Hamilton. Hij beweerde dat het scenario een geldige weergave was van de potentiële gevaren van AI.

Hoewel deze intrekking ook enige aandacht kreeg, was het al veel te laat. 'Een leugen gaat de wereld rond terwijl de waarheid haar laarzen aantrekt', luidt het oude gezegde, en dat geldt meer dan ooit in het tijdperk van sociale media. De correctie bereikt hoogstens een fractie van de mensen die het oorspronkelijke verhaal hebben gehoord.

Het probleem is dat het verhaal van een creatie die zich tegen zijn maker keert, ongelooflijk aantrekkelijk is. Mary Shelley's Frankenstein wordt vaak gezien als het klassieke voorbeeld van deze trope - ook al is dat niet het echte verhaal van het boek, deze versie is ingebed in het populaire bewustzijn. Computers, AI en robots die kapot gaan, zijn een van de best gevestigde clichés in SF, van HAL 9000 in 2001 tot Skynet's Terminators, de Matrix, Westworld, Blade Runner enzovoort.

Dit verhaal lijkt populair omdat mensen, als hart, van enge verhalen houden, en niets is enger dan het onbekende. Voor degenen die het niet begrijpen lijkt AI bijna magisch, een wezen met een eigen wil en intelligentie, een wezen dat ons zou kunnen bedreigen. Zolang mensen dit geloven, zullen de horrorverhalen blijven komen.

"Breder onderwijs over de beperkingen van AI zou kunnen helpen, maar onze liefde voor apocalyptische horrorverhalen zou nog steeds kunnen winnen", vertelde onderzoeker Beth Singler aan New Scientist.

Dergelijke horrorverhalen maken het moeilijker om robot- of AI-gestuurde wapens te ontwikkelen en te gebruiken. Zelfs als het politieke leiderschap de technologie begrijpt, moet het nog steeds het vertrouwen winnen van degenen die ermee gaan werken.

"Als soldaten het systeem niet vertrouwen, zullen ze het niet willen gebruiken", zei nationaal veiligheidsadviseur Zachary Kallenborn tegen Forbes.

Dergelijke verhalen zijn misschien een factor geweest in de lange vertragingen van het Amerikaanse leger bij het inzetten van op afstand bestuurbare grondrobots, terwijl de luchtmacht al tientallen jaren met gewapende drones vliegt. Toen in 2007 drie SWORDS-robots in Irak werden ingezet, werden ze teruggebracht zonder ooit actie te zien vanwege gerapporteerde gevallen van 'ongecommandeerde bewegingen'. De media veranderden dit in ZWAARDEN die hun geweren zwaaiden en dreigden het vuur te openen zoals de ED 209 van Robocop; de alledaagse realiteit kwam neer op een losse draad en een geval waarin een robot achteruit een helling afgleed toen een motor doorbrandde.

Het gewapende robotprogramma van het Amerikaanse leger is sindsdien in het ongewisse gebleven, terwijl Rusland gewapende (op afstand bestuurbare) Uran-9-robots in actie heeft gebruikt.

Een andere kop uit 2007, Robot Cannon Kills 9, Wounds 14, beschreef een incident waarbij een geautomatiseerd Zuid-Afrikaans luchtafweerkanon blijkbaar uit de hand liep en op mensen begon te schieten, en pas werd gestopt toen een moedige soldaat het deactiveerde. De waarheid, een dag of twee later, was weer saaier: het kanon bevond zich aan het einde van een rij van verschillende wapens en vuurde per ongeluk een enkele uitbarsting van 15-20 schoten af ​​langs de reeks kanonnen, waardoor het grote aantal slachtoffers viel.

Het leger zal doorgaan met AI, zoals het project van de luchtmacht om kunstmatige intelligentie toe te voegen aan zijn leger van Reaper-drones. Dergelijke projecten zullen altijd zorgen voor een scherpe adem in de media, het publiek en de wetgevers die ze kiezen. Het alomtegenwoordige verhaal van Frankenstein/Terminator, dat de discussie overstemt over de echte problemen die met autonome wapens te maken hebben, zoals ethische overwegingen, verantwoordingsplicht, drempelverlaging, algoritmische vooringenomenheid en 'digitale ontmenselijking'.

Zoals vaak is opgemerkt, houden de meeste piloten niet van drones, vooral niet als ze beter zijn dan mensen. Kolonel Tucker, een gevechtspiloot, is misschien niet helemaal de pleitbezorger die AI-piloten nodig hebben. Het malafide drone-verhaal zal onderdeel worden van de AI-folklore, en de woorden van Tucker hebben er mogelijk veel toe bijgedragen dat de ontwikkeling van AI wordt gecontroleerd, gereguleerd en beperkt in de luchtmacht. De gesimuleerde drone-aanval is in werkelijkheid nooit gebeurd, maar dat is misschien niet zo belangrijk als wat mensen zich herinneren,

Bron: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operator-maar-het-kan-net-zo-goed-gedaan/