AI-ethiek verstoord door nieuwste China bedacht AI-partij-loyaliteit geestlezende gezichtsherkenningsverklaring die een voorbode zou kunnen zijn van onderdrukkende autonome systemen

Ben je loyaal?

In theorie is het misschien mogelijk om je openlijke daden te onderzoeken en vast te stellen of loyaliteit wordt getoond door je acties.

Veronderstel echter dat er een poging is gedaan om je gedachten te lezen en ondertussen je gezicht te scannen om je loyaliteitsquotiënt te bepalen. Dit is griezelig opdringerig; zou je gemakkelijk kunnen afkeuren. Klinkt als een van die gekke sci-fi-films die een toekomstige dystopische samenleving voor ogen hebben.

Gelukkig, fluister je stiekem tegen jezelf, zoiets hebben we vandaag niet.

Hou je paarden vast.

De krantenkoppen schetteren onlangs dat een onderzoekspaper die op 1 juli 2022 online in China werd geplaatst, een onderzoek afbeeldde dat zogenaamd een beoordeling van de hersengolven en hun gezichtsuitdrukkingen van mensen omvatte om te berekenen of ze loyaal waren aan de Chinese Communistische Partij (CCP) . Dus, daar ga je, de toekomst komt steeds dichterbij, tenminste in termen van het bereiken van de dystopische samenleving waarvan we gevreesd hebben dat die ooit zou kunnen ontstaan.

De onderzoekspaper verdween snel van de online geplaatste link.

Vermoedelijk was de snelle minachting die snel over het internet ging, voldoende om de krant te verwijderen. Of misschien willen de onderzoekers gewoon een paar woordwijzigingen en andere onschadelijke correcties aanbrengen, met als doel een reposting te doen zodra ze een grondigere kans hebben gehad om ervoor te zorgen dat de i's zijn gestippeld en de t's allemaal zijn gekruist. We zullen onze ogen open moeten houden om te zien of de krant een tweede leven krijgt.

Ik ga door en ga diep in op wat we weten over de onderzoeksstudie en probeer de punten met elkaar te verbinden over hoe dit soort AI-gerelateerd werk voor ons allemaal van belang is, veel verder gaand dan het zien van dit beperkt tot een bepaald land. Mijn berichtgeving zal iets uitgebreider zijn dan de andere recente berichtgeving over dit nieuwswaardige item, dus wees geduldig.

Mijn toegevoegde nadruk zal ook zijn dat er een hele reeks essentiële AI-ethieklessen zijn die we uit het beweerde papier kunnen halen. Voor mijn voortdurende en uitgebreide verslaggeving over AI Ethics en Ethical AI, zie: de link hier en de link hier, om er een paar te noemen.

Dit is wat er tot nu toe is genoemd over het onderzoek.

Blijkbaar werden enkele “vrijwilligers” gerekruteerd om deel te nemen aan een experiment met betrekking tot percepties van de CCP. Of ze bereidwillige vrijwilligers waren of meer verwant waren aan geprikkelde of misschien begeleide vrijwilligers, is onbekend. We gaan er omwille van de discussie van uit dat ze het eens waren om een ​​onderwerp in het onderzoek te zijn.

Ik breng dit naar voren om niet alleen maar smarmy te zijn. Telkens wanneer een experiment wordt uitgevoerd met menselijke proefpersonen, is er een overvloed aan algemeen aanvaarde praktijken met betrekking tot de rekrutering en onderdompeling van dergelijke proefpersonen in een onderzoeksinspanning. Dit is gedeeltelijk terug te voeren op eerdere onderzoeken die mensen vaak misleidden of dwongen om deel te nemen aan een experiment, wat soms leidde tot nadelige psychologische gevolgen of zelfs fysieke schade voor die deelnemers. De wetenschappelijke gemeenschap heeft krachtig geprobeerd om dit soort verraderlijke studies in te perken en vereist dat allerlei soorten onthullingen en waarschuwingen worden verstrekt aan degenen die worden gezocht voor opname in mensgerelateerde studies.

Ter verduidelijking, niet iedereen houdt zich aan dergelijke voorzichtige en gewetensvolle richtlijnen.

Verderop, waren er naar verluidt 43 proefpersonen, en ze zouden lid zijn van de Chinese Communistische Partij. Houd er rekening mee dat de selectie van proefpersonen voor een experiment vrij cruciaal is voor het experiment en dat er ook rekening mee moet worden gehouden met betrekking tot eventuele conclusies die u later zou kunnen trekken over de resultaten van het experiment.

Stel dat ik een experiment wil doen over hoe mensen de veelgeprezen Star Wars-serie zien. Als ik vooraf onderwerpen selecteer die allemaal een enorme hekel hebben aan Star Wars (hoe kunnen zulke mensen bestaan?), en ik laat ze Star Wars-videoclips zien, dan is de kans groot dat ze zullen zeggen dat ze nog steeds een hekel aan Star Wars hebben. Gebaseerd op dit pseudowetenschappelijke experiment, beweer ik misschien stiekem dat mensen - in het algemeen - echt een hekel hebben aan Star Wars, wat "bewezen" was (knipoog) in mijn "zorgvuldig" voorbereide onderzoeksomgeving.

Je wist misschien niet dat ik als het ware het roulettewiel had gemanipuleerd door de onderwerpen voor te selecteren waarvan ik verwachtte dat ze mijn heimelijk gewenste resultaten zouden opleveren. Als ik in plaats daarvan opzettelijk mensen had gerekruteerd die van Star Wars hielden en fervente fans waren, was de kans groot dat ze zouden melden dat ze extatisch waren over het kijken naar die Star Wars-clips. Nogmaals, alle conclusies over hoe mensen in het algemeen op Star Wars reageren, zouden worden getemperd door de vooraf geselecteerde reeks onderwerpen die voor de inspanning zijn gekozen.

In het op de CCP gerichte onderzoek zaten de proefpersonen schijnbaar voor een kioskachtig videoscherm en lazen ze verschillende artikelen over het beleid en de prestaties van de CCP. Dit is waarschijnlijk de beschouwde "experimentele behandeling" waaraan de proefpersonen worden blootgesteld. Bij het plannen van een experiment bedenk je meestal een experimentele factor of aspect waarvan je wilt weten of het invloed heeft op de deelnemers.

De onderzoeksvraag die blijkbaar werd onderzocht, was of het beoordelen van deze materialen enige invloed zou hebben op de proefpersonen in termen van toename, afname of neutraal zijn met betrekking tot hun latere indrukken van de CCP.

In een klassieke nulhypothese zou je zo'n onderzoek kunnen regelen om te stellen dat de verbruikte materialen geen invloed hebben op de daaropvolgende indrukken die door de proefpersonen worden uitgedrukt. Als u eenmaal voor en na hun standpunten over de CCP hebt vergeleken, zou u statistisch proberen te zien of er een statistisch significante detectie van een verandering in hun impressies was.

Het kan zijn dat de voor en na statistisch niet verschillend zijn, daarom zou je redelijk voorzichtig kunnen concluderen dat voor dit specifieke onderzoek de getoonde materialen (experimentele behandeling) geen verschil leken te maken in hun indrukken. Aan de andere kant, als er een statistisch geldig verschil was, zou je kijken of de after groter was dan de vorige, zodat je voorzichtig kunt suggereren dat de materialen hun indruk versterkten (en, aan de andere kant van de medaille, als het na was minder dan het ervoor, dit zou kunnen betekenen dat de materialen hun indruk verminderden of verlaagden).

Er zijn veel zeurende losse eindjes die in zo'n onderzoek moeten worden aangepakt.

We willen bijvoorbeeld meestal een zogenaamde controlegroep hebben die we kunnen vergelijken met degenen die de experimentele behandeling krijgen. Dit is waarom. Stel dat het zitten voor een kiosk om materiaal te lezen de ware basis was waarom indrukken werden veranderd. Het kan zijn dat de aard van de gebruikte materialen ruwweg niet van belang is voor de indruk-impact. Gewoon zitten en iets lezen, zoals de nieuwste verhalen over katten die grappige dingen doen, alleen zou het lukken. We zouden daarom kunnen regelen dat sommige onderwerpen in onze controlegroep worden opgenomen die worden blootgesteld aan ander materiaal om te lezen, anders dan het CCP-beleid en de verworvenheden.

We weten niet of dat in dit geval is gebeurd (niemand lijkt dit facet nog genoemd te hebben).

Ik realiseer me dat je nu boos begint te worden over het media-explosieve deel van de studie. We zullen snel naar dat gedeelte gaan.

Hoe kunnen we detecteren of de proefpersonen in dit experiment reageerden op of hun indrukken veranderden als gevolg van het lezen van het weergegeven materiaal?

Een gebruikelijk middel zou zijn om het hen te vragen.

U zou vooraf misschien een vragenlijst hebben afgenomen waarin hen wordt gevraagd naar hun indrukken van de CCP. Daarna konden we, na de blootstelling aan de experimentele behandeling, zoals bij het lezen van getoonde materialen, nog een vragenlijst afnemen. De antwoorden van de proefpersonen op een voor en na basis kunnen dan worden vergeleken. Als we ook een controlegroep zouden gebruiken, zouden we aannemen dat de antwoorden van de controlegroep niet wezenlijk zouden veranderen van de vorige naar de volgende (in de veronderstelling dat het kijken naar verhalen over stoeiende katten geen invloed zou moeten hebben op hun CCP-indrukken).

Deze handeling van het vragen van de proefpersonen naar hun indrukken is niet per se zo eenvoudig als het lijkt.

Stel dat de proefpersonen in het experiment het gevoel krijgen dat je wilt dat ze op een bepaalde manier op de experimentele behandeling reageren. In dat geval zouden ze hun reacties tijdens het laatste deel van de experimentele toediening opzettelijk kunnen overdrijven. Je hebt dit vast wel eens zien gebeuren. Als ik een smaaktest doe voor een nieuwe frisdrank die op de markt komt, doe ik misschien alsof ik enorm van de frisdrank genoot, in de hoop dat ik misschien in een advertentie van de frisdrankmaker zou verschijnen en mijn welverdiende vijftien minuten roem zou krijgen .

De essentie is dat alleen mensen hun mening vragen, geen trefzekere manier is om veranderingen te meten. Het is één benadering. Andere benaderingen kunnen en worden ook vaak ondernomen.

Hoe koos dit specifieke onderzoek ervoor om de reacties van de proefpersonen te peilen?

Blijkbaar zijn er minstens twee methoden gebruikt. Een methode bestond uit het doen van een gezichtsscan en het gebruik van op AI gebaseerde gezichtsherkenningssoftware om de reacties van de proefpersonen te beoordelen. De andere methode was naar verluidt een vorm van hersengolfscanning. Het is tot nu toe niet gemeld welk type hersengolf-scanapparatuur werd gebruikt, noch wat voor soort AI-gebaseerde hersengolfanalysesoftware werd gebruikt.

Verschillende rapporten hebben aangegeven dat de studie dit over de aard van het experiment stelt: "Aan de ene kant kan het beoordelen hoe partijleden denken en politieke opvoeding hebben geaccepteerd." En de studie zou dit ook hebben genoemd: "Aan de andere kant zal het echte gegevens opleveren voor het denken en politieke educatie, zodat het kan worden verbeterd en verrijkt." Het onderzoek werd toegeschreven aan de uitvoering onder auspiciën van het Hefei Comprehensive National Science Centre in China.

Mediaberichten suggereren dat de studie zinspeelde op een bewering dat de gezichtsherkenningsscans en de hersengolfscans konden helpen detecteren dat de na-indrukken over de CCP werden versterkt.

Ik wil voor u opmerken dat we niet weten hoe deze op AI gebaseerde systemen precies werden gebruikt, zonder de gebruikte systemen rechtstreeks te kunnen beoordelen en de onderzoekspaper nauwkeurig te kunnen bestuderen.

Het kan zijn dat de proefpersonen reageerden op de experimentele setting in plaats van op de experimentele behandeling. Iedereen die aan een onderzoek meedoet, kan om te beginnen angstig zijn. Dit kan elke poging om hersengolfscans of gezichtspatroonanalyse uit te voeren in de war brengen. Er is ook een kans dat ze gemotiveerd waren om de onderzoekers een plezier te doen, ervoor kozen om positieve gedachten te verzonnen na het zien van de materialen en dit zou in theorie tot uiting kunnen komen in de hersengolfscans en de gezichtsscans (misschien, maar weet dat er een groot een gepassioneerde controverse over de geldigheid van dergelijke beweringen, zoals ik zo dadelijk zal toelichten), in de hoop de resultaten te vertekenen en aan te tonen dat ze een positieve invloed hadden.

De Twitter-reactie ontkende substantieel dat het idee om AI-gemachtigde hersengolfscans en gezichtsherkenning te gebruiken op zich al een verschrikkelijke en schandalige daad is. Alleen menselijke monsters zouden dat soort apparaten gebruiken, zo wordt ons verteld door sommige van die tweets.

Ik moet je vragen om te gaan zitten en jezelf voor te bereiden op iets dat een onbeleefde en schokkende verrassing zou kunnen zijn.

Er zijn wereldwijd veel onderzoekers die dezelfde soorten technologieën gebruiken in hun onderzoeksstudies. Dit is zeker niet de allereerste keer dat een hersengolfscanfunctie bij mensen wordt gebruikt in een onderzoeksinspanning. Het was ook zeker niet de eerste keer dat gezichtsherkenning voor experimentele doeleinden op mensen werd toegepast. Zelfs een vluchtige online zoekopdracht zal je heel veel experimentele onderzoeken laten zien in allerlei landen en laboratoria die dit soort apparaten hebben gebruikt.

Dat gezegd hebbende, het gebruik ervan om loyaliteit aan de CCP te meten is niet iets waar u veel aandacht aan zou besteden. Wanneer dergelijke AI wordt gebruikt voor overheidscontrole, is een rode lijn overschreden, zoals ze zeggen.

Dat is het duidelijk huiveringwekkende deel van de hele kit en caboodle.

De door velen geuite bezorgdheid is dat als regeringen ervoor kiezen om hersengolfscantechnologie en gezichtsherkenning te gebruiken om loyaliteit aan de huidige regimes vast te stellen, we ons in een dystopische wereld van pijn zullen bevinden. Wanneer u door een openbare straat loopt, kan het zijn dat een apparaat op een lantaarnpaal clandestien uw loyaliteitsquotiënt bepaalt.

Je zou kunnen veronderstellen dat als je gezicht niet lijkt te suggereren dat je voldoende loyaal bent, of als de hersengolfscan hetzelfde suggereert, gouvernementele misdadigers plotseling op je af komen stormen en je vastgrijpen. zenuwslopend. verschrikkelijk. Mag niet worden toegestaan.

Dat is de crux waarom er een kop van stromende verontwaardiging en verontwaardiging is ontstaan ​​over dit nieuwsbericht.

Stel je dit eens voor. We gaan mogelijk computergebaseerde systemen maken en vervolgens in gebruik nemen die de nieuwste AI gebruiken om te beslissen of we loyaal zijn of niet. Als je mensen zou proberen in te huren om rond te zitten en hetzelfde te doen, zou je veel mensen nodig hebben en zou je een logistiek probleem hebben om ze te positioneren om iedereen in de gaten te houden. In het geval van een op AI gebaseerd systeem, hoeft u alleen maar de elektronische apparaten op lantaarnpalen, zijkanten van gebouwen, enzovoort te installeren. Het scannen naar loyaliteit kan 24×7 gebeuren, te allen tijde, op alle plaatsen die zo zijn uitgerust. Dit kan vervolgens worden ingevoerd in een enorme database.

We worden mensen die slechts radertjes zijn in een kolossaal alziend, alziend maatschappelijk onderdrukkend ecosysteem. Het ziende oog kijkt niet alleen naar wat we doen. Het interpreteert ook wat onze gezichten beweren te zeggen over onze loyaliteit aan de regering. Onze geest moet eveneens worden onderzocht om een ​​soortgelijke vreselijke zaak.

Yikes!

Er is ook een secundaire zorg die hieruit voortkomt, hoewel misschien niet zo netelig in vergelijking met de Big Brother-implicaties zoals al geschetst.

Denk na over deze twee prangende vragen:

  • Kunnen we met zekerheid stellen dat een hersengolfscan uw loyaliteit kan bevestigen?
  • Kunnen we met zekerheid stellen dat een gezichtsherkenningsscan uw loyaliteit kan bevestigen?

Wacht even, je schreeuwt misschien uit de top van je longen.

Ik besef en erken dat u misschien niet zoveel geeft om de betrouwbaarheidsaspecten op zich. Of dit betrouwbaar kan, is minder cruciaal dan het feit dat het überhaupt wordt gedaan. Niemand zou onder zo'n controle moeten staan. Vergeet of de technologie geschikt is voor deze taak. We zouden de taak niet meteen moeten uitvoeren.

Het antwoord op dit moment is in ieder geval een volmondig nee, namelijk dat bestaande AI-systemen die enige schijn van ‘hersengolfscans’ en gezichtsherkenning doen niet voldoende in staat zijn om die sprong te maken.

Je hebt misschien de laatste tijd gezien dat sommige makers van gezichtsherkenning wat terug hebben gedaan in termen van hoe hun gezichtsherkenningssystemen in gebruik worden genomen. In een volgende column zal ik de recente inspanningen bespreken van bijvoorbeeld Microsoft om te proberen het tij te keren van degenen die de door Microsoft geleverde gezichtsherkenningstools gebruiken voor doeleinden die veel verder gaan dan wat de technologie kan of zou moeten worden gebruikt voor . Misschien vind je mijn eerdere blik op de AI Ethics scrupules die al veel gepubliceerd zijn over gezichtsherkenning interessant, zie de link hier. Ik heb ook de arena van hersengolfscans besproken, zie mijn discussie op de link hier.

Kortom, er zijn nog geen betrouwbare of zinnige middelen om te suggereren dat een hersengolfscan of een gezichtsherkenningsscan iemands loyaliteit zou kunnen uitbeelden. Zelfs vermoedelijk elementaire facetten, zoals of je die scans op betrouwbare wijze kunt correleren met of iemand blij of verdrietig is, worden nog steeds fel bediscussieerd. De lat hoger leggen voor zoiets amorfs en veranderlijks als loyaliteit is een brug te ver.

Ik zou eraan kunnen toevoegen dat sommigen vurig geloven dat we er uiteindelijk zullen komen. Daarom heb ik zorgvuldig geprobeerd vast te stellen dat we er nog niet zijn, in plaats van te stellen dat we er nooit zullen komen. Nooit is een groot woord. Je moet er absoluut zeker van zijn als je gaat gooien dat dit zal nooit haalbaar zijn (in gedachten houdend dat "nooit" decennia vanaf nu, eeuwen vanaf nu en duizenden of miljoenen jaren vanaf nu omvat).

Sommigen hebben gereageerd op het nieuwsbericht over dit Chinese laboratoriumonderzoek als een indicator van hoe gevaarlijk de wereld neigt naar ongepast en gevaarlijk gebruik van AI. Ik zal even een glimp met je delen van waar AI-ethiek over gaat. Dit zal je helpen om levendiger te zien waarom deze specifieke studie veel, zo niet bijna alle algemeen aanvaarde voorschriften van ethische AI ​​lijkt te schenden.

Geloof het of niet, sommigen hebben gesuggereerd dat we misschien een berg van een molshoop maken met betrekking tot deze specifieke studie.

Zijn we?

Het tegenargument is dat een molshoop snel genoeg een berg kan worden. In het spreekwoordelijke idee van een sneeuwbal die groter en groter wordt als hij van een besneeuwde heuvel afrolt, moeten we voorkomen dat de sneeuwbal op gang komt. Als we dit soort onderzoeken tolereren, laten we die sneeuwbal zijn reis beginnen. Door ons uit te spreken en dergelijke onderzoeken aan te kondigen, kunnen we misschien de sneeuwbal voorkomen.

Eén ding is zeker, we staan ​​op het punt om de doos van Pandora te openen als het gaat om AI-aspecten, en de vraag blijft of we het openen van de doos kunnen voorkomen of op zijn minst een middel kunnen vinden om voorzichtig om te gaan met wat er ook uitkomt zodra de doos zijn duivelse inhoud heeft losgelaten.

Als er niets anders is, zullen dit soort mediastormen hopelijk leiden tot een wijdverbreide discussie over hoe we AI-gerelateerd kwaad kunnen voorkomen en tal van door AI veroorzaakte existentiële risico's kunnen afwenden. We moeten ons maatschappelijke bewustzijn van AI-ethiek en ethische AI-overwegingen een tandje bijsteken.

Voordat we ingaan op wat meer vlees en aardappelen over de wilde en wollige overwegingen die ten grondslag liggen aan dit soort AI-systemen, laten we eerst wat aanvullende grondbeginselen vaststellen over zeer essentiële onderwerpen. We moeten even een frisse duik nemen in AI Ethics en vooral de komst van Machine Learning (ML) en Deep Learning (DL).

Je bent je er misschien vaag van bewust dat een van de luidste stemmen tegenwoordig in het AI-veld en zelfs buiten het veld van AI bestaat uit het roepen om een ​​grotere schijn van ethische AI. Laten we eens kijken naar wat het betekent om te verwijzen naar AI Ethics en Ethical AI. Bovendien zullen we onderzoeken wat ik bedoel als ik het heb over Machine Learning en Deep Learning.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent van een mens is. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Laten we terugkeren naar onze focus op AI-systemen die worden gebruikt voor ongepaste of mogelijk regelrechte wanpraktijken en hoe dat zich verhoudt tot de recent gepubliceerde studie over CCP-loyaliteit.

Twee primaire overwegingen komen bij me op:

1) Dit AI-exemplaar maakt deel uit van een groter doorlopend patroon van verontrustend AI-gebruik en daarom onheilspellend en eye-opening over wat er gebeurt

2) De kat kan zo uit de zak worden gelaten dat als AI zoals deze in het ene land wordt geadopteerd, het ook gemakkelijk naar andere landen kan worden verspreid

Begin met het eerste punt over deze instantie van AI die deel uitmaakt van een doorlopend patroon.

Een bijzonder belangrijke reden om vooral verontrust te zijn door dit ene specifieke onderzoek, is dat het deel uitmaakt van een groter patroon van hoe AI door sommigen wil worden gebruikt. Als dit de enige studie was die ooit is uitgevoerd, zouden we er misschien een beetje door geroerd zijn. Desalniettemin zou het waarschijnlijk niet resoneren met zo'n ijver als we nu zien.

Dit is misschien het druppelen van een sluipend voortgaan naar iets dat uit de hand gaat lopen.

Zoals in het nieuws werd gemeld, staat China erom bekend dat het heeft aangedrongen op uitbundige loyaliteit aan de CCP. Verder zijn er verschillende middelen in het leven geroepen of in ontwikkeling om ervoor te zorgen dat mensen worden geïndoctrineerd in de regeringsdoctrine. Er zijn voorbeelden aangehaald van eerdere studies die probeerden AI-algoritmen te ontwikkelen die de denkomstandigheden van partijleden zouden kunnen meten (zie de door China gesteunde Studietijden in 2019 waarin deze inspanningen werden genoemd).

U herinnert zich misschien dat vice-president Mike Pence in 2018 een toespraak hield in het Hudson Institute en benadrukte dat “China's heersers ernaar streven een Orwelliaans systeem te implementeren dat is gebaseerd op het beheersen van vrijwel elk facet van het menselijk leven” (dit was een verwijzing naar de CCP-implementatie van een sociaal kredietscoresysteem, een onderwerp van prominente controverse). Je zou gerust kunnen stellen dat deze recente CCP-studie een nieuwe stap in die richting is.

We weten niet wanneer en of de laatste druppel de emmer doet overlopen, zodat deze eenmalige onderzoeken worden omgezet in wijdverbreide op AI gebaseerde monitoringsystemen.

Het tweede punt dat de aandacht verdient, is dat we er niet vanuit kunnen gaan dat dit type AI zich alleen tot China zal beperken. Hoewel het gebruik van dit type AI in China dat wijdverbreid kan worden, op zich al verontrustend is, zouden andere landen hetzelfde kunnen doen.

Zodra wordt gezegd dat de AI hiervoor klaar is voor prime time, zal het waarschijnlijk niet veel kosten voor andere landen om te beslissen dat ze het ook willen implementeren. De kat zal uit de zak zijn. Sommige landen zullen deze AI vermoedelijk op een ronduit onderdrukkende manier gebruiken en niet proberen om voorwendselen te gebruiken om dit te doen. Andere landen zouden dit type AI schijnbaar willen gebruiken voor schijnbaar nuttige doeleinden, waarvan er uiteindelijk een nadeel is dat bijna onvermijdelijk zal zijn.

Eigenlijk is het een beetje een verkeerde benaming om te suggereren dat dit type AI misschien pas zal worden geadopteerd als het als klaar voor prime time wordt beschouwd. Het maakt misschien niet uit of de AI op deze manier zeker kan werken. De AI kan gebruikt worden als dekmantel, zie mijn uitleg op de link hier. Ongeacht wat de AI daadwerkelijk kan bereiken, het idee is dat de AI een handig voorwendsel kan zijn om bevolkingsmonitoring en schema's voor het meten en verzekeren van absolute loyaliteit aan autoriteiten voort te brengen.

Op dit moment van deze gewichtige discussie, durf ik te wedden dat u op zoek bent naar enkele illustratieve voorbeelden die dit onderwerp zouden kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over misbruik van AI, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en misbruik van AI

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik hoop dat dit een voldoende litanie van voorbehouden biedt om ten grondslag te liggen aan wat ik ga vertellen.

Laten we een scenario voor zelfrijdende auto's schetsen dat AI op schetsmatige of verkeerde manieren zou kunnen gebruiken.

Ik ga enkele op AI gebaseerde vertakkingen van zelfrijdende auto's met u delen die ervoor kunnen zorgen dat u huivert en gestoord wordt. Dit zijn facetten waar bijna niemand op dit moment over praat. Ik heb de zaken herhaaldelijk aan de orde gesteld, hoewel ik openlijk toegeef dat we, totdat we een wijdverbreide adoptie van zelfrijdende auto's hebben, niet veel grip zullen krijgen op de samenleving die zich zorgen maakt of van streek is over wat vandaag de dag lijkt op louter abstracte begrippen .

Ben je klaar?

We beginnen met het leggen van de fundering.

Op AI gebaseerde zelfrijdende auto's zullen verstandig worden uitgerust met videocamera's. Hierdoor kan de zelfrijdende auto videobeelden van de rijscène ontvangen. Het AI-aandrijfsysteem dat aan boord van de computers in de zelfrijdende auto draait, is op zijn beurt bedoeld om de verzamelde video computationeel te onderzoeken en uit te zoeken waar de weg is, waar auto's in de buurt zijn, waar voetgangers zijn, enzovoort. Ik realiseer me dat ik de basisprincipes van zelfrijdende auto's 101 opzeg.

Er zijn videocamera's gemonteerd aan de buitenkant van het autonome voertuig en ze zijn naar buiten gericht. Bovendien kun je over het algemeen verwachten dat er videocamera's op of in het voertuig zullen zijn die naar binnen gericht zijn op het interieur van de zelfrijdende auto. Waarom? Makkelijk, want er zullen veel belangrijke toepassingen zijn voor het vastleggen van video's van het reilen en zeilen in het autonome voertuig.

Wanneer je een ritje maakt in een zelfrijdende auto, hoef je niet langer de bestuurder te zijn. Wat ga je dan doen in een zelfrijdende auto?

Een ding dat u zou kunnen doen, is communiceren met anderen thuis of op kantoor. Daar ben je dan, op weg naar je werk, dat wil zeggen een uur rijden met de zelfrijdende auto, en je kunt je werkdag al beginnen door een Zoom-achtige online realtime interactieve sessie te doen. Ze kunnen je zien, doordat de camera's naar binnen gericht zijn in de zelfrijdende auto. Je ziet ze misschien op een ledscherm in de zelfrijdende auto. Aan het eind van je dag, terwijl je naar huis gaat, zou je een soortgelijke interactieve videodiscussie met je kinderen kunnen doen terwijl ze hun huiswerk voor de avond beginnen af ​​te krijgen.

Een ander gebruik zou zijn om lessen te volgen. Nu u uw tijd niet meer hoeft te verspillen aan autorijden, kunt u die dode tijd in een zelfrijdende auto omzetten in het verbeteren van uw vaardigheden of het behalen van een certificering of diploma. Via de naar binnen gerichte camera's kan je instructeur je zien en bespreken hoe je training vordert.

Nog een ander gebruik zou zijn om te proberen ervoor te zorgen dat berijders in zelfrijdende auto's niet op hol slaan. In een door mensen bestuurde auto is de bestuurder een volwassen aanwezigheid die berijders er gewoonlijk van weerhoudt gekke dingen te doen, zoals het interieur markeren met graffiti. Wat gebeurt er met op AI gebaseerde zelfrijdende auto's? Sommigen maken zich zorgen dat rijders ervoor zullen kiezen om het interieur van de voertuigen te verscheuren. Om dit te proberen te voorkomen, zal het ridesharing-bedrijf dat de zelfrijdende auto's inzet, waarschijnlijk naar binnen gerichte videocamera's gebruiken om te controleren wat mensen doen terwijl ze in het autonome voertuig zitten.

Ik neem aan dat u ervan overtuigd bent dat we videocamera's zullen hebben die naar het interieur van zelfrijdende auto's wijzen, naast de camera's die naar buiten wijzen om de rijscène te onderscheiden.

Je bent nu klaar voor wat ik het zwervende oog heb genoemd, zie mijn analyse op de link hier.

Kijk eerst eens naar de videocamera's die naar buiten wijzen.

Waar de zelfrijdende auto ook heen gaat, hij kan mogelijk alles opnemen wat de camera's zien. Een zelfrijdende auto die iemand vanuit huis een lift geeft en hen naar de supermarkt brengt, doorkruist een buurt en de video legt niet alleen de rijbaan vast, maar ook al het andere dat zich binnen het gezichtsveld afspeelt. Een vader en zoon spelen in hun voortuin. Een gezin zit op hun veranda. Het gaat maar door.

Op dit moment hebben we zo weinig zelfrijdende auto's op de openbare weg dat deze mogelijkheid om video van dagelijkse activiteiten vast te leggen relatief schaars en immaterieel is.

Stel je voor dat we uiteindelijk veilige en wijdverbreide zelfrijdende auto's bereiken. Duizenden van hen. Misschien miljoenen. We hebben momenteel ongeveer 250 miljoen door mensen aangedreven auto's in de VS. Uiteindelijk zullen die vrijwel worden vervangen door zelfrijdende auto's of gewoon niet meer worden gebruikt, en zullen we overwegend zelfrijdende auto's op onze wegen hebben. Die zelfrijdende auto's worden bestuurd door AI en kunnen als zodanig in wezen 24×7 rondzwerven. Geen rustpauzes, geen badkamerpauzes.

De videogegevens kunnen vanuit deze zelfrijdende auto's worden geüpload via OTA (Over-The-Air) elektronische netwerkverbindingen. Zelfrijdende auto's zullen OTA gebruiken om de nieuwste AI-software-updates in het voertuig te downloaden. Daarnaast kan de OTA worden gebruikt om gegevens van de zelfrijdende auto te uploaden naar een cloudgebaseerde database.

Alles bij elkaar genomen, zou het haalbaar zijn om deze geüploade gegevens samen te voegen. Met het stiksel zou je mogelijk het dagelijkse komen en gaan samen kunnen voegen van iedereen die op een dag naar buiten stapte op een locatie waar veel zelfrijdende auto's werden gebruikt.

Dat is het zwervende oog waar ik voor heb gewaarschuwd.

We kunnen nu de CCP-studie naar dit soort capaciteiten afstemmen. Stel dat een overheid toegang heeft tot al deze verzamelde videodata. Ze kunnen dan een op AI gebaseerd algoritme voor gezichtsherkenning gebruiken om vast te stellen waar je bent geweest, op welk tijdstip van de dag, tijdens je dagelijkse reizen van het leven. Bovendien zouden ze vermoedelijk hun "loyaliteit" AI-gebaseerde analyser kunnen gebruiken om te zien of je een loyale blik op je gezicht leek te hebben of niet.

Stel je voor dat je op een dinsdagmiddag liep om een ​​broodje te halen bij een lokaal restaurant. Op de rijbaan reden zelfrijdende auto's voorbij. Al de vele video's legden je vast terwijl je je vijf minuten durende wandeling maakte om een ​​hapje te eten. De gegevens werden geüpload naar een gecentraliseerde database. De overheid heeft haar AI-gezichtsherkenningsprogramma op de gegevens uitgevoerd.

Blijkt dat de AI "vastbesloten" was dat je een ontrouwe blik op je gezicht had.

Misschien gebeurde deze ontrouwe blik maar voor een ogenblik. Je stond op een straathoek te wachten tot het licht zou veranderen zodat je de straat over kon steken naar het eetcafé. Op dat moment had je een lichte trek van walging dat je te lang moest wachten op het Walk-symbool. Was dit misschien een indicatie van uw ontrouw aan de regering?

Ja, de AI rekenkundig berekend, je was op dat moment overvloedig ontrouw. Als je die avond thuiskomt, heeft de regering je arrestatie geregeld.

Maar wacht, er is meer.

Onthoud dat videocamera's ook naar binnen wijzen.

Diezelfde dinsdag, toen je in een zelfrijdende auto naar je werk reed, legden de videocamera's elk moment van je vast. Dit werd geüpload naar een gecentraliseerde database. De AI-software die gezichtspatronen analyseert op ontrouw deed een computerpatroononderzoek van je gezichtsuitdrukkingen tijdens de reis naar kantoor.

Op een gegeven moment keek je nonchalant buiten het autonome voertuig en zag je een bouwvakker die de rijbaan gedeeltelijk blokkeerde en ervoor zorgde dat het AI-aandrijfsysteem de zelfrijdende auto afremde. Een fractie van een seconde zag je gezicht een spot van spot voor deze bouwvakker die het verkeer afremde.

De AI-gezichtspatroonanalyse interpreteerde dit als een teken van ontrouw aan de overheid.

Twee aanvallen op jou op één dag.

Je leeft op glad ijs.

Natuurlijk, of de AI "goed" of "fout" is om uw loyaliteit te kunnen bepalen, is in deze context bijna onbelangrijk. De essentie is dat AI voor dit doel is ingevoerd. De mensen die de AI inzetten, kunnen er wel of niet om geven of de AI geschikt is voor dit soort taken. De AI maakt controle door de overheid mogelijk, ongeacht de technologische validiteit zelf.

Dat dekt het scannen van gezichten.

Als we op den duur draagbare, kosteneffectieve apparaten hebben om (vermeende) hersengolven te scannen, dan kan dat zeker ook in zelfrijdende auto's. Videocamera's zijn nu zeker. De mogelijkheid om hersengolfscanapparaten van dit kaliber te hebben, is op dit moment niet aan de orde, maar het is duidelijk iets dat voor de toekomst wordt overwogen.

Voor mijn onderzoek naar hoe een regering zou kunnen proberen een bevolking over te nemen door de controle over zelfrijdende auto's te grijpen, zie de link hier. Een vergelijkbare mogelijkheid bestaat dat een kwaadwillende actor hetzelfde zou proberen, zie de link hier. Dit zijn niet bedoeld als schriktactieken met betrekking tot berichtgeving over die gerelateerde onderwerpen, maar in plaats daarvan een waarschuwing over het belang van cyberbeveiliging en andere voorzorgsmaatregelen die we als samenleving moeten nemen met betrekking tot het ontstaan ​​van alomtegenwoordige zelfrijdende auto's en andere autonome voertuigen.

Conclusie

Ik zou snel een extra aspect willen bespreken over de AI die wordt gebruikt om loyaliteit vast te stellen, waarvan ik denk dat het een enigszins apart onderwerp is, maar een onderwerp dat door sommige tweets en sociale media wordt bediscussieerd.

Ik heb eerder gezegd dat we geen bewuste AI hebben en we weten niet of en wanneer we dat zullen doen. Laten we het idee koesteren dat we bewuste AI zullen hebben. Overweeg in dat geval het volgende scenario.

Wij via niet-bewuste AI kiezen ervoor om een ​​wijdverbreid gebruik van AI in te voeren die computationeel vaststelt of mensen loyaal zijn aan hun overheid, met behulp van gezichtsscans, hersengolfscans, enzovoort. Dit wordt volledig gerund door en gebruikt door mensen met gezag. Dat is het verontrustende scenario dat ik zojuist heb beschreven.

Tijd om de lat hoger te leggen.

AI wordt bewust. We hebben deze bewuste AI nu potentieel een wijdverbreid vermogen gegeven om vermoedelijk loyaliteit en ontrouw bij mensen te identificeren. Een boosaardige AI die overweegt mensen uit te roeien, zou deze mogelijkheid kunnen gebruiken om te besluiten dat mensen inderdaad ontrouw zullen zijn en volledig moeten worden vernietigd. Of misschien moeten juist die mensen die een teken van ontrouw via hun gezicht of hun gedachten laten zien, in het bijzonder worden geschrapt.

Een andere invalshoek is dat de AI mensen tot slaaf wil maken, zie mijn discussie op de link hier.

We lijken de AI een perfect cadeau te hebben gegeven om die zoektocht uit te voeren. Dankzij de bestaande infrastructuur die we hebben opgezet, kan de AI ons mensen nauwlettend in de gaten houden. Degenen die een ontrouwe gezichtsindicatie lijken te hebben uitgesproken of hebben nagedacht over de AI-overheerser(s) zullen de toorn van de AI voelen.

Ik realiseer me dat ik zei dat dit een verhoging van de ante is. Ik weet niet zeker of dat het geval is. Het lijkt mij dat of we AI-opperheren hebben die rechtstreeks ons lot bepalen, versus menselijke opperheren die misschien een AI-systeem gebruiken om loyaliteit te bepalen, wel, geen van beide voorstellen lijkt bijzonder wenselijk.

Voor nu een laatste opmerking.

De Romeinse geleerde en filosoof Marcus Tullius Cicero verklaarde dat er niets nobeler, niets eerbiedwaardiger is dan loyaliteit. We laten AI misschien op ons afkomen en een hulpmiddel worden om met vreselijke middelen 'loyaliteit' in te schakelen en te verzekeren.

Een waardevolle, bewuste reden om AI-ethiek bovenaan onze takenlijst te plaatsen.

Bron: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- attest-dat-misschien-een voorbode-onderdrukkende-autonome-systemen/