AI-ethiek en AI-geïnduceerde psychologische inenting om mensen te helpen met desinformatie

Wat gaan we doen aan de enorme overvloed aan desinformatie en desinformatie?

Het wordt allemaal aantoonbaar erger en erger, met elke dag die voorbijgaat.

Misschien kan kunstmatige intelligentie (AI) ons te hulp komen. Ja, dat klopt, we kunnen misschien de nuttige toepassingen van AI gebruiken om onze niet-aflatende tsunami van desinformatie en verkeerde informatie het hoofd te bieden. Misschien doen we er verstandig aan om dat te proberen. Elke mogelijke oplossing lijkt het nastreven waard.

Even terzijde, ik wil meteen erkennen en opmerken dat AI ongetwijfeld gaat ook ook een deel van het probleem zijn. Het lijdt geen twijfel dat mensen AI gemakkelijk kunnen gebruiken om desinformatie en verkeerde informatie te genereren. Bovendien kan AI op verraderlijke wijze worden gebruikt om desinformatie en verkeerde informatie verbazingwekkend valide te laten lijken en mensen voor de gek te houden door te geloven dat de gepresenteerde informatie verleidelijk nauwkeurig en feitelijk is. Een beslist droevige kant van wat AI op tafel brengt. Tegen het einde van deze discussie komen we op dit minpuntje terug.

Laten we voor nu onze smileygezichten opzetten en onderzoeken hoe AI nuttig is om desinformatie en verkeerde informatie op de knieën te krijgen. Een belangrijke onderstroom zal zijn dat dit allemaal aansluit bij vitale elementen van AI Ethics. Mijn column over AI Ethics en Ethical AI is doorlopend en uitgebreid, inclusief: de link hier en de link hier, om er een paar te noemen.

Overweeg deze hoekstenen waarop AI een bijzonder behulpzame bondgenoot kan zijn in de strijd tegen desinformatie en desinformatie:

  • Stop bij de start: AI kan worden gebruikt om desinformatie en desinformatie op te sporen en te proberen te accijnzen voordat deze loskomt
  • Filteren voor gezien: AI kan worden gebruikt om desinformatie en verkeerde informatie te filteren, zodat u zich geen zorgen hoeft te maken over het zien ervan
  • Bereid je voor om immuun te zijn: AI kan worden gebruikt om uw bereidheid en vermogen te versterken om het hoofd te bieden aan desinformatie en verkeerde informatie (wat formeel bekend staat als een soort psychologische inenting)
  • Overige

Het eerste opsommingsteken houdt in dat wordt geprobeerd desinformatie en desinformatie zo vroeg mogelijk te stoppen, voordat de inhoud de wereld in gaat.

Dit is een zeer problematische benadering. Sommigen zouden luidruchtig beweren dat dit een Big Brother-poging zou kunnen zijn om de vrijheid van meningsuiting te onderdrukken. Hoe ver zou deze AI kunnen gaan? Kan het mensen ervan weerhouden vrij hun mening te uiten? Dit zou griezelig een glibberige helling kunnen worden van AI die uiteindelijk de ergste nachtmerrie wordt van slechte resultaten die onschuldig begonnen met de beste bedoelingen.

Ik weet zeker dat je het beeld krijgt.

Het tweede opsommingsteken is wat gematigder en suggereert dat we AI zouden kunnen gebruiken om inhoud voor ons te filteren.

Mogelijk hebt u een AI-filterbot die al uw inkomende datafeeds van verschillende nieuws- en andere bronnen scant. De AI is op maat gemaakt om alle desinformatie of verkeerde informatie op te vangen die aan uw persoonlijke criteria voldoet. In een dergelijk scenario is het dus geen Big Brother-censuursituatie. U beheert de AI en hoe deze namens u uw echte inbox met informatie filtert.

Klinkt best goed.

Er zijn echter enkele opmerkelijke zorgen.

We zijn bijvoorbeeld al sterk gepolariseerd in onze opvattingen en dit gebruik van AI kan die polarisatie dieper en donkerder maken. Stel je voor dat je met deze gelikte AI die non-stop 24×7 werkt, nooit een greintje informatie hoeft te zien die je hebt geclassificeerd als potentieel desinformatie en verkeerde informatie. Je gepolariseerde perspectief blijft nu bijna gegarandeerd intact. De hele dag en wanneer u de informatie die op uw aandacht wacht, wilt bekijken, is deze altijd volledig voorgeselecteerd en heeft u geen kans om een ​​blik te werpen op zogenaamde desinformatie en desinformatie.

Ik zeg dat desinformatie en desinformatie kunnen zijn zogenaamd omdat er een enorme hoeveelheid controverse is over wat eigenlijk desinformatie en desinformatie is. Sommige experts houden vol dat er een absolute basis is om vast te stellen wat desinformatie is en wat desinformatie is. Er is goed en fout. Alles kan worden berekend zonder de fout te maken dat iets ofwel desinformatie ofwel desinformatie is.

Niet iedereen ziet de dingen als zo duidelijk.

Het spreekwoordelijke aan of uit elkaar uitsluitende dichotomiecontrast zou een misleidende gemoedstoestand zijn. Desinformatie van de ene persoon mag niet worden beschouwd als desinformatie voor een andere persoon. Zo ook over desinformatie. De bewering is dat desinformatie en desinformatie variëren in termen van aard en omvang. Proberen om alle informatie definitief in de ene of de andere stapel te classificeren, is een stuk moeilijker dan handzwaaien suggereert.

De essentie is dat het tweede punt over het gebruik van AI als filtermechanisme zijn nadelen heeft. Het lijdt geen twijfel dat AI in toenemende mate voor dit gebruik zal worden gebruikt. Tegelijkertijd moeten we ons bewust zijn van de uitdagingen die dergelijke AI naar voren zal brengen. AI als filter voor desinformatie en desinformatie is geen wondermiddel of slam dunk.

Dat brengt ons bij het derde punt, namelijk de mogelijkheid om AI te gebruiken om mensen beter te laten omgaan met desinformatie en desinformatie.

Ik betwijfel of je waarschijnlijk veel hebt gehoord over deze derde manier om AI in deze context te gebruiken. Het begint net op te komen. U bevindt zich nu op het snijvlak van iets dat waarschijnlijk zal groeien en geleidelijk in gebruik zal worden genomen. Houd er echter rekening mee dat naarmate deze populariteit toeneemt, de controverse over de vraag of het een geschikte aanpak is, ook zeer zichtbaar zal worden.

Een deel van het probleem is dat AI enigszins wordt gebruikt voor wat sommigen op een denigrerende manier zouden noemen: denkspelletjes spelen met mensen.

Dat lijkt onheilspellend.

Dit brengt ons ook op het gebied van AI-ethiek.

Dit alles heeft ook betrekking op de nuchter opkomende zorgen over de hedendaagse AI en vooral het gebruik van Machine Learning en Deep Learning als een vorm van technologie en hoe deze wordt gebruikt. Zie je, er zijn toepassingen van ML/DL die de neiging hebben om de AI door het grote publiek te antropomorfiseren, gelovend of ervoor kiezend om aan te nemen dat de ML/DL ofwel bewuste AI is of dichtbij (dat is het niet). Bovendien kan ML/DL aspecten van computationele patroonvergelijking bevatten die onwenselijk of ronduit ongepast zijn, of illegaal vanuit ethisch of juridisch perspectief.

Het is misschien handig om eerst te verduidelijken wat ik bedoel als ik het over AI in het algemeen heb en ook een kort overzicht te geven van Machine Learning en Deep Learning. Er is veel verwarring over wat kunstmatige intelligentie inhoudt. Ik wil u ook de principes van AI-ethiek voorstellen, die vooral een integraal onderdeel zullen zijn van de rest van deze verhandeling.

Vermelding van het record over AI

Laten we ervoor zorgen dat we op dezelfde lijn zitten over de aard van de hedendaagse AI.

Er is tegenwoordig geen AI die bewust is.

Dit hebben we niet.

We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere wonderbaarlijke manier spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als The Singularity, zie mijn bericht op de link hier).

Realiseer je dat de huidige AI niet in staat is om op enige manier te 'denken' op het niveau van menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning en Deep Learning, die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Een deel van het probleem is onze neiging om computers en vooral AI te antropomorfiseren. Wanneer een computersysteem of AI lijkt te handelen op een manier die we associëren met menselijk gedrag, is er een bijna overweldigende drang om menselijke eigenschappen aan het systeem toe te schrijven. Het is een veel voorkomende mentale val die zelfs de meest onverzettelijke scepticus kan grijpen over de kansen om het bewustzijn te bereiken.

Tot op zekere hoogte is dat de reden waarom AI Ethics en Ethical AI zo'n cruciaal onderwerp is.

De voorschriften van AI Ethics zorgen ervoor dat we waakzaam blijven. AI-technologen kunnen soms in beslag worden genomen door technologie, met name de optimalisatie van hightech. Ze houden niet per se rekening met de grotere maatschappelijke gevolgen. Het hebben van een AI Ethics-mentaliteit en dit integraal doen voor de ontwikkeling en fielding van AI is van vitaal belang voor het produceren van geschikte AI, inclusief de beoordeling van hoe AI-ethiek door bedrijven wordt geadopteerd.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen vooraf dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen. Zie bijvoorbeeld mijn dekking op de link hier.

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die verschillende landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI Ethics-begrippen. Zoals eerder hierin is benadrukt, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we de zaken nuchter houden en ons concentreren op de computationele, niet-bewuste AI van vandaag.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Ik geloof dat ik nu de weg heb vrijgemaakt om voldoende te discussiëren over de rol van AI als middel om psychologische inenting in verband met het omgaan met desinformatie en verkeerde informatie aan te moedigen.

In de hoofden van mensen komen

Laten we beginnen met de basis of fundamenten die ten grondslag liggen aan desinformatie en desinformatie.

Over het algemeen verwijst desinformatie naar valse of misleidende informatie.

Desinformatie is ongeveer hetzelfde, maar bestaat uit het toegevoegde element van: aandachtig. Normaal gesproken beschouwen we informatie als desinformatie als het de informatie is bestemde verkeerd informeren.

Ik zou je kunnen vertellen dat het momenteel 10 uur 's nachts is, wat, laten we zeggen, niet waar is, omdat de tijd echt middernacht is. Als ik je 10 uur had verteld als een voorgevoel en niet probeerde te bedriegen, zouden we meestal zeggen dat ik je verkeerd had geïnformeerd. Ik had verkeerde informatie doorgegeven. Misschien was ik lui of misschien geloofde ik echt dat het 10 uur was. Aan de andere kant, als ik 10 uur had genoemd omdat ik je opzettelijk wilde misleiden door te denken dat het 10 uur was en ik wist dat het eigenlijk middernacht was, zou dit een vorm van desinformatie kunnen zijn .

Een opmerkelijk aspect van informatie in het algemeen is dat we doorgaans in staat zijn om informatie te verspreiden en dat informatie dus enigszins wijdverbreid kan worden. Informatie kan echt stromen als water, in brede zin.

Ik zeg je dat het 10 uur 's avonds is. Je hebt nu dat specifieke stukje informatie. Je zou hardop tegen een groep mensen in de buurt kunnen schreeuwen dat het 10 uur 's nachts is. Diezelfde informatie hebben ze nu ook. Misschien pakken sommige van die mensen hun mobiele telefoon en bellen andere mensen om hen te vertellen dat het 10 uur is. Al met al kan informatie worden verspreid of gedeeld en soms zo snel, in andere gevallen zo langzaam.

In zekere zin zou je kunnen beweren dat informatie viraal kan gaan.

Er is een bedacht woord of terminologie die je misschien niet echt hebt gezien of gebruikt en die helpt bij het beschrijven van dit fenomeen van informatie die viraal gaat, het woord is infodemisch. Dit woord is een combinatie van zowel informatie als een epidemie. Over het algemeen wordt een infodemie geassocieerd met omstandigheden waarbij verkeerde informatie of desinformatie wordt verspreid. Het idee is dat valse of misleidende informatie ongewenst viraal kan gaan, vergelijkbaar met de ongewenste verspreiding van ziekten of aandoeningen.

In het voorbeeld over de tijd dat het 10 uur 's nachts was, was dit schijnbare feit een stukje informatie dat werd verspreid naar de nabijgelegen groep mensen. Op hun beurt verspreiden zij het feit naar anderen. Als de 10 uur nep was, werd dit specifieke geval van desinformatie of verkeerde informatie naar vele anderen verspreid. Ze weten misschien niet dat de informatie verkeerde informatie of mogelijk desinformatie was.

Ik vertrouw erop dat al deze definities en grondbeginselen verstandig lijken en dat u tot nu toe aan boord bent.

Geweldig, laten we doorgaan.

Ik heb je enigszins heimelijk in iets geleid dat veel fascinatie en ook angst met zich meebrengt. De essentie is dat er aantoonbaar redelijk goede parallellen zijn tussen wat ziekten viraal doen en wat verkeerde informatie of desinformatie viraal doet.

Niet iedereen is het eens met deze beweerde parallellen. Toch zijn ze intrigerend en het overwegen waard.

Sta me toe het uit te leggen.

Zie je, we kunnen proberen gebruik te maken van de handige analogie om te verwijzen naar door mensen overgedragen ziekten en ziekten die zich verspreiden, door een soortgelijke mogelijkheid te vergelijken met de verspreiding van verkeerde informatie en desinformatie. Om te proberen de verspreiding van ziekten te stoppen, kunnen we ernaar streven om een ​​opkomende zieke bron vroegtijdig op te sporen en in te dammen, de mogelijke verspreiding van de aandoening. Een andere benadering om met een zich verspreidende ziekte om te gaan, is ervoor te zorgen dat u deze niet krijgt door het verstandig gebruik van een masker of beschermende uitrusting. Een derde benadering zou kunnen bestaan ​​uit het nemen van vaccinaties om te proberen uw immuniteit gerelateerd aan de ziekte op te bouwen.

We hebben nu de cirkel rond dat diezelfde benaderingen van het omgaan met ziekten expliciet kunnen worden vergeleken met het omgaan met verkeerde informatie en desinformatie. Ik heb eerder vermeld dat er soortgelijke inspanningen gaande zijn om kunstmatige intelligentie in te zetten om te proberen om te gaan met desinformatie en verkeerde informatie, met name (zoals eerder vermeld):

  • Stop bij de start: AI kan worden gebruikt om desinformatie en desinformatie op te sporen en te proberen te accijnzen voordat deze loskomt
  • Filteren voor gezien: AI kan worden gebruikt om desinformatie en verkeerde informatie te filteren, zodat u zich geen zorgen hoeft te maken over het zien ervan
  • Bereid je voor om immuun te zijn: AI kan worden gebruikt om uw bereidheid en vermogen te versterken om het hoofd te bieden aan desinformatie en verkeerde informatie (wat formeel bekend staat als een soort psychologische inenting)
  • Overige

Het derde aspect zal hierin van het grootste belang zijn.

Dit is de deal.

We weten dat ziekten meestal de lichaam. Met de analogie van hoe verkeerde informatie en desinformatie voorkomen, zouden we kunnen suggereren dat foutieve informatie toeslaat op de menselijke geest. Ja, je kunt vermoedelijk in aanraking komen met desinformatie of verkeerde informatie die je geest binnenstroomt. De desinformatie of verkeerde informatie corrumpeert of vergiftigt mogelijk uw manier van denken.

Een menselijk lichaam kan worden gevaccineerd om te proberen zich voor te bereiden op het in contact komen met ziekten. Een grote vraag rijst of we hetzelfde kunnen doen voor de menselijke geest. Is het mogelijk om te proberen de geest te inoculeren, zodat wanneer desinformatie of verkeerde informatie in je opkomt, je er klaar voor bent en dienovereenkomstig bent ingeënt?

Een vakgebied dat bekend staat als psychologische inenting stelt dat de geest inderdaad kan worden ingeënt in de zin dat hij klaar is om verkeerde informatie of desinformatie aan te pakken.

Overweeg deze beschrijving in een recent onderzoek naar psychologische inenting en wat soms wordt bestempeld als doen voorbunken:

  • “Het ontmaskeren van verkeerde informatie is ook problematisch omdat het corrigeren van verkeerde informatie de effecten ervan niet altijd volledig teniet doet, een fenomeen dat bekend staat als het voortdurende beïnvloedingseffect. Dienovereenkomstig heeft prebunking, in tegenstelling tot debunking, aan bekendheid gewonnen als middel om preventief weerbaarheid op te bouwen tegen verwachte blootstelling aan verkeerde informatie. Deze benadering is meestal gebaseerd op de inentingstheorie. De inentingstheorie volgt een medische immunisatie-analogie en stelt dat het mogelijk is om psychologische weerstand op te bouwen tegen ongewenste overredingspogingen, net zoals medische inentingen fysiologische weerstand opbouwen tegen ziekteverwekkers” (Wetenschap Advances, 24 augustus 2022, "Psychologische inenting verbetert de veerkracht tegen verkeerde informatie op sociale media" door co-auteurs Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje en Stephan Lewandowsky).

Om terug te keren naar mijn voorbeeld over de tijd dat het 10 uur 's avonds is, stel dat ik u eerder had verteld dat de geclaimde tijd soms niet de werkelijke tijd is. Je hebt voortaan een vorm van inenting om op je hoede te zijn voor geclaimde tijden. Deze inenting heeft je voorbereid om in contact te komen met beweerde tijden die desinformatie of verkeerde informatie zijn.

Als ik u enkele jaren geleden had gewaarschuwd dat geclaimde tijden geen werkelijke tijden zijn, bestaat de kans dat u niet aan die waarschuwing van lang geleden denkt. Dus de eerdere inenting is (laten we zeggen) uitgewerkt. Mijn inenting voor jou moet misschien worden versterkt.

Er is ook een kans dat de inenting niet specifiek genoeg was om het te gebruiken wanneer dat nodig is. Als ik je jaren geleden had gewaarschuwd voor geclaimde tijden versus werkelijke tijden, zou dat te breed zijn. De inenting werkt mogelijk niet in het specifieke geval dat u omstreeks 10 uur wordt verteld. In die zin had mijn inenting misschien moeten zijn dat je op je hoede moet zijn als een geclaimde tijd van 10 uur wordt gehanteerd. Natuurlijk zijn inentingen in het geval van ziekten enigszins hetzelfde, soms zeer specifiek voor bekende aandoeningen en in andere gevallen een breed spectrum.

Een vaak geciteerd onderzoek dat in 1961 door William McGuire van de Columbia University naar psychologische inenting werd gedaan, wordt nu algemeen beschouwd als een klassieker in dit vakgebied. Misschien vind je deze belangrijke punten die hij destijds maakte interessant:

  • "Een dergelijke algemene immunisatie kan voortkomen uit een van de twee mechanismen. Voorafgaande blootstelling zou de persoon kunnen doen beseffen dat de 'truïsmen' die hij altijd heeft aanvaard inderdaad kwetsbaar zijn, waardoor hij ertoe wordt aangezet een verdediging van zijn overtuiging te ontwikkelen, met als resultaat dat hij beter bestand is tegen de sterke tegenargumenten wanneer ze komen. Als alternatief kunnen de weerleggingen die gepaard gaan met de pre-exposure ervoor zorgen dat alle vervolgens gepresenteerde tegenargumenten tegen de overtuiging minder indrukwekkend lijken" (William McGuire, "Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments", Journal of Abnormal and sociale psychologie, 1961).

Vindt u deze analogie van inentingen en immunisatie een nuttige en passende vergelijking met het rijk van verkeerde informatie en desinformatie?

Sommige wel, andere niet.

Accepteer voor de doeleinden van deze discussie dat het uitgangspunt redelijk en toepasselijk is.

Hoe moeten we proberen de geest van mensen te inenten of te immuniseren?

We zouden mensen boeken kunnen laten lezen die hun geest zouden kunnen verlichten. We kunnen ze erover vertellen, of ze video's laten bekijken of naar geluidsbanden laten luisteren. Enz.

En we kunnen AI gebruiken om hetzelfde te doen.

Er kan een AI-systeem worden bedacht als uw inoculator. Telkens wanneer u online gaat, zoals internetten, kan een op AI gebaseerde app u voorbereiden op uw online reis. De AI kan je een piepkleine hoeveelheid desinformatie geven die als zodanig is bestempeld, waardoor je je realiseert dat je op het punt staat iets te zien dat opzettelijk onwaar is.

Na blootstelling aan deze AI-gevoede desinformatie, wordt je geest nu klaargestoomd om het hoofd te bieden aan desinformatie of verkeerde informatie die je in het wild op internet zou kunnen tegenkomen. Je geest is voorbereid. Voila, je ziet een blog op internet die een beweerd feit aanbiedt dat buitenaardse wezens van Mars al hier op aarde zijn en zich in het volle zicht verbergen, maar deze schijnbare desinformatie of verkeerde informatie wordt gemakkelijk door je geest verworpen vanwege de eerdere inenting (nou ja, aan de andere kant, misschien is het waar en zijn ze er echt!).

Hoe dan ook, ik hoop dat u nu kunt onderscheiden hoe het kan dat AI kan helpen mensen te inoculeren of te immuniseren met betrekking tot desinformatie of verkeerde informatie.

Er worden verschillende AI-apps bedacht die als inoculatoren van desinformatie of desinformatie zullen fungeren. De AI zou kunnen proberen inenting te bieden die breed is en een algemene schijn van immunisatie biedt. AI zou ook kunnen worden bedacht voor meer specifieke vormen van inenting. Bovendien kan de AI werken op een gepersonaliseerde basis die is afgestemd op uw specifieke behoeften of interesses. Geavanceerde AI in deze ruimte zal ook proberen je tolerantieniveau, mentale absorptiesnelheid, retentiecapaciteit en andere factoren te bepalen bij het samenstellen en presenteren van zogenaamde immunisatieschoten als het ware.

Lijkt me best handig.

AI als gevaarlijke Mind Games-speler

AI die op deze manier wordt gebruikt, lijkt op het eerste gezicht best handig (hey, dat zei ik zojuist).

Er is een hele reeks potentiële nadelen en problemen die zorgwekkend en misschien beangstigend zijn.

In mijn columns bespreek ik vaak de dual-use capaciteiten van AI, zie bijvoorbeeld de link hier. AI kan een essentiële bijdrage leveren aan de mensheid. Helaas wordt AI ook gehinderd door veel gevaren en ongelukkige valkuilen.

Laten we voor het geval van AI als inculcator eens kijken naar deze demonstratieve AI-ethiekgerelateerde problemen:

  • Bijwerkingen door mensen
  • Niet-reagerende reacties door mensen
  • Verkeerde AI-targeting
  • AI ondertargeting
  • Cyberbreuk van de AI
  • Overige

We gaan kort in op die zorgen.

Bijwerkingen door mensen

Stel dat een mens die dit soort op AI gebaseerde inenting krijgt, een bijwerking heeft of een nadelig effect heeft.

De persoon kan de immunisatie verkeerd interpreteren en plotseling onontvankelijk worden voor alle informatie die hij ontvangt. Ze blokkeren alle informatie. De AI heeft hen op de een of andere manier ertoe aangezet om het kind met het badwater weg te gooien (een oud gezegde, misschien de moeite waard om met pensioen te gaan). In plaats van alleen te proberen om te gaan met desinformatie en verkeerde informatie, heeft de persoon gereageerd door te besluiten dat alle informatie altijd onjuist is.

Ik denk niet dat we willen dat mensen zo overboord gaan.

Er is een veelvoud aan bijwerkingen die AI zou kunnen bevorderen. Dit is gedeeltelijk te wijten aan de manier waarop de AI probeerde de inenting uit te voeren, maar we moeten ook een deel van het probleem aan de voeten leggen van de mens die de inenting heeft ontvangen. Ze hebben misschien op een wilde of bizarre manier gereageerd dat anderen die dezelfde AI-inenting ontvingen dat niet deden.

Nogmaals, je kunt dit vergelijken met de analogie van inentingen voor ziekten.

Kortom, het zal belangrijk zijn dat wanneer dergelijke AI-inspanningen worden gebruikt, ze op verantwoorde manieren worden gedaan om nadelige effecten te minimaliseren. Er moet ook een vervolgaspect van de AI zijn om te proberen vast te stellen of er een bijwerking is opgetreden. Als er een bijwerking wordt gedetecteerd, moet de AI worden ontworpen om te proberen de persoon te helpen bij zijn ongunstige reactie en om de reactie te overwinnen of te verlichten.

Niet-reagerende reacties door mensen

Een andere mogelijkheid is dat de AI-gevoede inenting geen impact heeft op de ontvangende persoon.

Een persoon krijgt een op AI gebaseerde inenting die verband houdt met verkeerde informatie of desinformatie. Terwijl de meeste mensen "het snappen" en geïmmuniseerd worden, zijn er zeker mensen die helemaal niet zullen reageren. Ze leren niets van de inenting. Ze reageren niet op de AI-poging om hen te immuniseren voor alle of bepaalde soorten verkeerde informatie of desinformatie.

Nogmaals, dit is vergelijkbaar met inentingen voor ziekten.

AI zou moeten worden ontworpen om met een dergelijke omstandigheid om te gaan.

AI verkeerde targeting

Stel je voor dat een AI hoopt mensen te immuniseren met betrekking tot een bepaald onderwerp waarvan we zullen zeggen dat het onderwerp X is, maar het blijkt dat onderwerp Y in plaats daarvan wordt behandeld. De AI is verkeerd gericht.

Dit is een tweeledig probleem. Ten eerste is onderwerp X toen niet behandeld als het veronderstelde en gehoopte doel van de AI-ent. Ten tweede wordt onderwerp Y behandeld, maar we hadden misschien niet gewild dat mensen over dat onderwerp zouden worden ingeënt.

Oeps.

Vragen in overvloed. Had dit voorkomen kunnen worden? Als het gebeurt, kunnen we dan het onderwerp Y-immunisatie ongedaan maken? Kunnen we proberen het onderwerp X-inenting te behandelen, of zal de persoon minder ontvankelijk of niet-ontvankelijk zijn vanwege de verkeerde targeting door de AI oorspronkelijk?

Er doen zich veel problematische zorgen voor.

AI ondertargeting

Een AI zorgt voor een inenting over het onderwerp Z. De mensen die de inenting krijgen, lijken een minimale of bijna verwaarloosbare reactie te hebben. De inenting was onvoldoende om vast te houden.

Je zou in de verleiding kunnen komen om snel te beweren dat dit eenvoudig is op te lossen. Het enige wat u hoeft te doen is de inenting herhalen. Misschien wel misschien niet.

De AI-inenting kan van zo'n beperkte waarde zijn dat het niet uitmaakt of je mensen het honderd keer laat ervaren, het resultaat is nog steeds een marginaal resultaat. Mogelijk moet u de inenting stimuleren in plaats van deze simpelweg te herhalen.

Stel je ondertussen voor dat er een poging wordt gedaan om de AI-gevoede inenting te stimuleren, maar dit gaat overboord. De versterkte versie veroorzaakt hyperreacties. Yikes, we zijn van kwaad tot erger gekomen.

Cyberinbreuk op de AI

Stel je voor dat AI op grote schaal wordt gebruikt om mensen te helpen ingeënt te worden tegen desinformatie en verkeerde informatie.

Er ontstaat een algemeen vertrouwen bij mensen. Ze weten en verwachten dat de AI hen fragmenten gaat presenteren die hun ogen zullen openen voor wat bekend staat als desinformatie en desinformatie.

Alles is goed en wel, zo lijkt het.

Een boosdoener is op de een of andere manier in staat om een ​​cyberaanval op de AI uit te voeren. Ze dwingen de AI stiekem wat gewenste desinformatie in waarvan ze willen dat mensen denken dat het geen desinformatie is. De AI is ingericht om de feitelijke desinformatie als echte informatie te laten lijken. Ook wordt de echte informatie als desinformatie weergegeven.

Mensen zijn volledig gesnookerd. Ze worden gedesinformeerd door AI. Bovendien, omdat ze afhankelijk waren geworden van de AI, en omdat ze erop vertrouwden dat de AI het juiste deed, vallen ze haak, lijn en zink voor deze geschonden AI. Zonder aarzeling.

Gezien hoe gemakkelijk desinformatie zich verder kan verspreiden, zou de boosdoener ervan genieten dat het bestaan ​​van dit soort AI hun gemakkelijkste en snelste manier is om hun verraderlijke leugens over de hele wereld te verspreiden. Ironisch genoeg natuurlijk, omdat hij de AI-inoculator heeft gebruikt om de ziekte in wezen te verspreiden.

Conclusie

Moeten we AI hersenspelletjes met ons laten spelen?

Zou AI voor desinformatie en desinformatie-inenting een dreigend Trojaans paard kunnen zijn?

Je kunt een pleidooi houden voor je zorgen maken over zo'n nachtmerrie.

Anderen spotten met een dergelijke mogelijkheid. Mensen zijn slim genoeg om te weten wanneer de AI hen probeert te misleiden. Mensen zullen niet vallen voor zo'n dribbel. Alleen idioten zouden zich door zo'n AI laten misleiden. Dat zijn de gebruikelijke antwoorden en tegenargumenten.

Omdat ik niet minder dan de mens en de menselijke natuur volledig wil bewonderen, zou ik alleen willen suggereren dat er voldoende aanwijzingen zijn dat mensen kunnen vallen voor AI die hen misleidt.

Er is een nog groter probleem dat misschien over dit alles opdoemt.

Wie maakt de AI en hoe bepaalt de AI algoritmisch wat als desinformatie en desinformatie wordt beschouwd?

Er vindt tegenwoordig een heel vuurgevecht plaats in de wereld als geheel over wat specifiek desinformatie en desinformatie is. Sommigen beweren dat feiten feiten zijn, dus er kan nooit enige verwarring bestaan ​​over wat juiste informatie versus onjuiste informatie is. De duivel zit soms in de details, dat is zeker.

Voor nu een laatste opmerking. De beroemde uitspraak van Abraham Lincoln: "Je kunt soms alle mensen voor de gek houden en sommige mensen de hele tijd, maar je kunt niet alle mensen altijd voor de gek houden."

Zal AI, die wordt gebruikt om de mensheid te beschermen tegen desinformatie en verkeerde informatie, een essentieel hulpmiddel zijn om ervoor te zorgen dat niet alle mensen altijd voor de gek gehouden kunnen worden? Of zou het kunnen worden gebruikt om meer mensen vaker voor de gek te houden?

De tijd zal het leren.

En dat is zeker geen desinformatie of verkeerde informatie.

Bron: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-duced-psychology-inoculation-to-help-humans-with-disinformation/