AI-ethiek en AI-wetgeving diep verstoord door AI die wordt gebruikt om op frauduleuze wijze verkiezingen te beïnvloeden of te corrumperen

Verkiezingen zijn essentieel voor de democratie.

Denk aan de beroemde woorden van John Quincy Adams, de vereerde diplomaat en 6e president van de Verenigde Staten (1825 tot 1829), waarbij hij welsprekend verklaarde: "Stem altijd voor het principe, hoewel je alleen mag stemmen, en je mag de zoetste reflectie koesteren die je stem gaat nooit verloren.”

Stemmen is essentieel en moet gekoesterd worden.

Als het om verkiezingen gaat, streven we naar kiezers die zonder extreme dwang kunnen stemmen over de keuzes die ze als kiezers maken. Ze moeten stemmen als hun vrije geest dat beslist. Uw stem is uw stem, en uw stem alleen.

Bovendien is de stemhandeling en het stemproces bedoeld om de werkelijke stemmen van kiezers op passende wijze te verantwoorden. Als het stemsysteem de werkelijke stemmen van de kiezers niet nauwkeurig registreert en telt, hebben we niet langer een middel om de wil van het volk te kennen. We zouden ook ongetwijfeld twijfelen aan de resultaten van het stemproces en alles bij elkaar genomen lijden aan een verzwakking van een schril geloof in onze democratie.

Volgens de puntige en verontrustende opmerking van Joseph Stalin: "De mensen die stemmen, beslissen niet over een verkiezing, de mensen die de stemmen tellen wel."

Samenvattend: we hebben degenen die stemmen, namelijk de kiezers, en we moeten een geldig stemsysteem hebben dat de stemmen telt, op een zodanige manier afgestemd dat vrije en eerlijke verkiezingen op ordelijke wijze kunnen plaatsvinden. Als de kiezers op de een of andere manier corrupt zijn, hebben we een gevaarlijk probleem dat onze democratie ondermijnt. Als het stemsysteem op de een of andere manier wordt gecorrumpeerd, hebben we ook een bedreigend probleem dat onze democratie ondermijnt.

Dat lijkt misschien allemaal nogal voor de hand liggend.

We worden dagelijks overspoeld met polariserende opmerkingen en gekreun over hoe kiezers vermoedelijk worden "gecorrumpeerd" of dat het stemsysteem ervan wordt verdacht corrupt te zijn. Allerlei zowel beredeneerde als onredelijke beschuldigingen over stemfraude doen de ronde. Het is zeker van groot belang om te proberen dergelijke fraude te voorkomen die tot corruptie van onze verkiezingen zou kunnen leiden. Daar is geen twijfel over.

Een invalshoek die nog niet bijzonder opmerkelijk is, maar die geleidelijk in zichtbaarheid en alomtegenwoordigheid zal toenemen, bestaat uit een corrumperende invloed waarvan maar weinigen zich vandaag de dag bijzonder bewust zijn.

Ben je klaar?

Kunstmatige intelligentie (AI).

Ja, AI kan worden gebruikt om kiezers te ondermijnen en ook onze stemsystemen te ondermijnen. De komst van wijdverbreid computergebruik, zoals onze smartphones en internet, biedt een middel om AI te gebruiken om onze verkiezingsfacetten te buigen of mogelijk te breken. We moeten ons ervan bewust zijn dat naarmate AI verder wordt ontwikkeld en toegepast in onze dagelijkse systemen, dezelfde voordelige AI kan worden gebruikt voor een meer onheilspellende kant van het gebruik.

Voor mijn verslag van wat gewoonlijk wordt aangeduid als dual-use AI, bestaande uit AI die aan de ene kant enorme voordelen biedt en tegelijkertijd kan worden verschoven naar zogenaamde Dr. Evil-inspanningen, zie de link hier.

Een cruciaal punt dat moet worden gemaakt, is dat AI inderdaad van groot belang kan zijn voor onze verkiezingen. Kiezers kunnen mogelijk gebruikmaken van AI om inzicht te krijgen in de stemproblemen waarmee ze worden geconfronteerd. AI kan dienen als middel om de voor- en nadelen te onderzoeken van maatschappelijke onderwerpen waarover wordt gestemd. AI kan in stemsystemen worden gebruikt om het stemproces te verbeteren, bijvoorbeeld door het stemmen gemakkelijker te maken of mensen aan te moedigen om gemakkelijk hun stem uit te brengen.

Scoor een plus één voor AI bij stemmen en verkiezingen.

Helaas moeten we ook op onze hoede zijn voor en een min één scoren voor AI bij stemmen en verkiezingen.

Hoe weet ik dat?

Ik zal je even door een groot aantal manieren leiden waarop AI kan worden gebruikt om kiezers en stemsystemen te ondermijnen. Dit lijkt misschien ontmoedigend en je zou in de verleiding kunnen komen om te suggereren dat we misschien niet over zulke dingen moeten praten. Al met al is een kop in het zand benadering van de nadelige gevolgen van AI geen verstandige manier om verder te gaan. We worden beter af door de nadelen van AI in onze samenleving te bespreken en gretig bloot te leggen. Door dit te doen, hebben we een grotere kans om met dergelijke AI om te gaan en proberen we de valkuilen van AI te minimaliseren of te verminderen.

AI in het stemmilieu is nog een andere zorg voor diegenen die in het bijzonder geïnteresseerd zijn in AI-ethiek en AI-recht. De AI Ethics-arena richt zich op ethische en morele elementen die verband houden met de opkomst van AI. Het AI-rechtsgebied heeft in deze context de neiging zich te concentreren op het bestuur van AI, met de vraag of onze bestaande wetten voldoende bestand zijn tegen de komst van AI en nieuwe AI-specifieke wetten voor te stellen wanneer wettelijke bepalingen nieuw nodig zijn. Voor mijn uitgebreide en doorlopende analyses van AI-ethiek en AI-recht, zie: de link hier en de link hier, om er een paar te noemen.

Ik denk dat het nuttig is om twee belangrijke perspectieven over AI op het gebied van verkiezingen in overweging te nemen:

(1) AI die de verkiezingen ten goede komt en zowel kiezers als onze stemsystemen helpt

(2) AI die zowel kiezers als onze stemsystemen ondermijnt en mogelijk corrumpeert

In de bespreking van vandaag ga ik voornamelijk de laatste van die twee categorieën beoordelen. Ik heb eerder in sommige van mijn berichten de voordelen van AI-democratie genoemd, dus het is tijd en nuttig om eens naar de andere kant van de medaille te kijken.

Het zal niet mooi zijn. Het democratisch giftige of verkiezingsgiftige gebruik van AI is louche en alarmerend verraderlijk. Desalniettemin zouden we nalatig zijn om het te negeren of te negeren. Het blootleggen van hoe AI schadelijk kan zijn voor ons stemgedrag, verdient alle aandacht. AI kan dienen als een soort Dr. Evil om onze vrije en eerlijke verkiezingen toe te eigenen, wat een zorg is waar we ons hoofd volledig omheen moeten draaien.

Laten we doorgaan en de ongunstige manieren uitpakken waarop AI onze verkiezingen wezenlijk kan aantasten en kijken wat we ervan kunnen maken.

Ik wil eerst een essentiële basis leggen over AI en in het bijzonder AI-ethiek en AI-recht, om ervoor te zorgen dat de discussie contextueel zinvol is.

Het toenemende bewustzijn van ethische AI ​​en ook AI-wetgeving

Het recente tijdperk van AI werd aanvankelijk gezien als AI voorgoed, wat betekent dat we AI kunnen gebruiken voor de verbetering van de mensheid. Op de hielen van AI voorgoed kwam het besef dat we ook ondergedompeld zijn in AI voor slecht. Dit omvat AI die is bedacht of zelf is veranderd om discriminerend te zijn en die computationele keuzes maakt die onnodige vooroordelen veroorzaken. Soms is de AI op die manier gebouwd, terwijl hij in andere gevallen in dat ongewenste gebied terechtkomt.

Ik wil er ruimschoots zeker van zijn dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild zouden speculeren over bewuste AI, zou deze discussie een radicaal andere richting kunnen uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens. Sterker nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Ik zou sterk willen voorstellen dat we de zaken nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Wees heel voorzichtig met het antropomorfiseren van de hedendaagse AI.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonafstemmingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit alles heeft met name belangrijke implicaties voor AI-ethiek en biedt een handig venster op de geleerde lessen (zelfs voordat alle lessen zijn getrokken) als het gaat om het proberen om AI wetgeving te maken.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen vooraf dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die verschillende landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder hierin is benadrukt, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Ik heb onlangs ook gekeken naar de AI Bill van rechten wat de officiële titel is van het officiële document van de Amerikaanse regering getiteld "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People", dat het resultaat was van een jarenlange inspanning van het Office of Science and Technology Policy (OSTP ). De OSTP is een federale entiteit die dient om de Amerikaanse president en het US Executive Office te adviseren over verschillende technologische, wetenschappelijke en technische aspecten van nationaal belang. In die zin kun je zeggen dat deze AI Bill of Rights een document is dat is goedgekeurd door en onderschreven door het bestaande Amerikaanse Witte Huis.

In de AI Bill of Rights zijn er vijf keystone-categorieën:

  • Veilige en effectieve systemen
  • Algoritmische discriminatiebescherming
  • Data Privacy
  • Opmerking en uitleg
  • Menselijke alternatieven, overweging en terugval

Ik heb die voorschriften zorgvuldig doorgenomen, zie je? de link hier.

Nu ik een nuttige basis heb gelegd over deze gerelateerde AI-ethiek en AI-rechtsonderwerpen, zijn we klaar om ons te verdiepen in het onstuimige onderwerp AI dat kiezers en stemsystemen ondermijnt.

AI bij stemmen is een toenemende overweging en mogelijke zorg

In een stemcontext weten we dat we waakzaam moeten zijn voor een hele reeks problematische kwalen zoals verkiezingsfraude, verkiezingsmanipulatie, kiezersfraude, stemfraude, kiezersonderdrukking, stemmenmanipulatie en dergelijke.

Er zijn veel conventionele niet-AI-manieren die: kiezers "corrupt" kan zijn en dat onze stemsystemen kan worden beschadigd. Voortdurende bewustwording van kiezersgerelateerde zaken en problemen met stemsystemen is cruciaal om problemen op te sporen voordat er schade wordt aangericht. Als de schade eenmaal is aangericht, moeten we ons realiseren wat er is gebeurd en proberen de daaruit voortvloeiende schade op te lossen.

We beginnen nu met het toevoegen van AI aan de eclectische mix.

Dus je hebt alle conventionele methoden om verkiezingen te corrumperen, en als een soort "bonus" (niet een hartige), ploffen we nu AI bovenop dat moeras. Als we onze aandacht onnodig verleggen naar de AI-aangedreven methoden om verkiezingen te corrumperen, zouden we onbedoeld de conventionele niet-AI-benaderingen kunnen laten floreren. Doe dat niet.

We moeten met adelaarsogen bezig zijn zowel:

1) Conventionele niet-AI-methoden om verkiezingen te corrumperen

2) AI-methoden om verkiezingen te corrumperen

Ik wilde er alleen voor zorgen dat we niet te verliefd worden op de glimmende nieuwe AI-manieren. De strijd om verkiezingscorruptie op te sporen en aan te pakken moet als het ware zowel op het land als op zee worden gestreden, waarbij zowel conventionele niet-AI als nieuwere AI-geïnfundeerde benaderingen nodig zijn.

Zoals eerder vermeld hierin, ben ik niet het idee van gaan aanpakken bewuste AI die onze verkiezingen zouden kunnen bederven. Dat zou nogal een konijnenhol zijn om in te duiken. Wilde speculaties zouden ontstaan. Stel bijvoorbeeld dat we AI zalven met een bonafide rechtspersoonlijkheid. Mag de AI stemmen? Zou AI slechts één stem krijgen alsof het op één lijn staat met één menselijke stem, of moeten we een substantieel aantal "stemmen" toewijzen aan een AI-systeem om ervoor te zorgen dat het correct wordt vertegenwoordigd? Zou de AI kunnen proberen om meer dan eens vals te spelen en te stemmen of voor meer dan wat dan ook, het is toegestaan? Enz.

Die draaimolen gaat maar door.

Ik blijf bij niet-bewuste AI in dit hierine vertoog.

De niet-bewuste AI van vandaag krijgt geen stem (nou ja, sommige experts zijn het daar niet mee eens, zie .) de link hier). Ik realiseer me dat er allerlei speculaties zijn over niet-bewuste AI die een zweem van rechtspersoonlijkheid krijgt, wat ik in mijn geschriften heb behandeld, maar het staat nu niet direct in de kaarten en dus ga ik dat buiten de deur houden. deze discussie.

We gaan er omwille van de redelijkheid van uit dat legitieme kiezers Dan moet je mens zijn.

We kunnen ook aannemen dat stemsystemen zijn waarschijnlijk een combinatie van mensen en computergebaseerde automatisering die werkt aan het tellen en rapporteren van de stemmen van een verkiezing.

Overweeg deze mogelijkheden:

  • AI wordt legitiem gebruikt om verkiezingsactiviteiten van kiezers en stemsystemen te ondersteunen
  • AI wordt op ethisch twijfelachtige manieren gebruikt in de richting van verkiezingsactiviteiten van kiezers en stemsystemen
  • AI wordt op ronduit onethische manieren gebruikt in de richting van verkiezingsactiviteiten van kiezers en stemsystemen
  • AI wordt op aantoonbaar illegale manieren gebruikt voor verkiezingsactiviteiten van kiezers en stemsystemen

Er kan nogal wat vervaging zijn tussen die mogelijkheden.

Neem bijvoorbeeld het gebruik van AI-chatbots.

Stel dat iemand die verkozen wil worden, gebruik maakt van op AI gebaseerde chatbots. De chatbots zijn geprogrammeerd om te verschijnen alsof ze mensen zijn op een social media-platform. Elk van de AI-chatbots verzint een normaal ogende naam en is schijnbaar een mens omdat de verhalen die door de AI worden gegenereerd, een menselijke kwaliteit hebben voor de bewoordingen. Neem aan dat er geen voor de hand liggende manier is om te onderscheiden of het verhaal door een mens is geschreven, een nabootsing is van wat een mens heeft geschreven, of dat het gegenereerde tekst kan zijn die programmatisch is ontworpen om eruit te zien alsof het door een mens is geschreven.

Menselijke kiezers die proberen te beslissen of ze op de kandidaat stemmen of in plaats daarvan op de tegenstander, worden summier gebombardeerd met AI-chatbot-chatter. Voor alle schijn lijkt het alsof duizenden en duizenden "mensen" openlijk en luid stemmen voor de kandidaat, terwijl duizenden en duizenden "mensen" ook de tegenstander ernstig vernielen.

Ik vraag u, in welke van de bovengenoemde emmers of mogelijkheden zit dit scenario?

Uw keuzes zijn dat dit legitiem is, of dat dit op het randje van ethisch, volledig onethisch of schandalig illegaal is.

Maak een keuze.

In het algemeen is dit het officiële standpunt van de FBI over verkiezingsgerelateerde misdaden: “Eerlijke verkiezingen vormen de basis van onze democratie en de FBI zet zich in voor de bescherming van het stemrecht van alle Amerikanen. De Amerikaanse overheid werkt alleen als de legale stemmen worden geteld en als campagnes de wet volgen. Wanneer de legitimiteit van verkiezingen wordt aangetast, wordt onze democratie bedreigd. Terwijl individuele staten verkiezingen houden, speelt de FBI een belangrijke rol bij het beschermen van federale belangen en het voorkomen van schendingen van uw grondwettelijke rechten. Een verkiezingsmisdaad is over het algemeen een federaal misdrijf als: (1) de stemming een of meer federale kandidaten bevat, (2) een verkiezings- of stembureaufunctionaris hun ambt misbruikt, (3) het gedrag een valse kiezersregistratie inhoudt, (4) het misdrijf opzettelijk gericht is op klassen die door minderheden worden beschermd, of (5) de activiteit in strijd is met de federale wetten inzake campagnefinanciering” (per online op de FBI-website onder “Verkiezingsmisdrijven en veiligheid”).

Je zou waarschijnlijk moeilijk kunnen beweren dat het gebruik van AI-chatbots ondubbelzinnig illegaal was. Dat gezegd hebbende, merk op dat staats- en lokale wetten hebben geprobeerd dit soort AI-praktijken te omvatten. Of ze de juridische toetsing zullen doorstaan, is nog niet helemaal duidelijk. Er zijn ook pogingen om dit vast te leggen in AI-gerelateerde federale wetten.

Ga er voorlopig vanuit dat dit specifieke gebruik van die AI-chatbots niet illegaal is (in deze gegeven context, terwijl andere contexten dramatisch kunnen verschillen). We landen dan op de vraag of het ethisch is of niet. Als u beweert dat het onethisch is, gaat de praktijk dan over in absoluut onethisch of lijkt het meer op een ethische grens?

De kans is groot dat de kandidaat die de AI-chatbots gebruikt, er stellig op staat dat het ontegensprekelijk een legitiem gebruik is en zelfs niet in het minst de ethische sfeer raakt. Ze beweren misschien dat de AI-chatbots nooit hebben verklaard dat ze mensen waren. Degenen die de berichten zagen of ontvingen, maakten die veronderstelling. Dat ligt aan hen, niet aan de AI-chatbots.

Kortom, de kandidaat zou kunnen beweren dat als menselijke kiezers zich laten misleiden of misleiden door een of andere vorm van desinformatie, het zij zo is. Dat is op de schouders van de menselijke kiezers. Eigenlijk zou de kandidaat verder kunnen beweren dat het helemaal geen desinformatie was. Als de informatie die werd overgebracht over de posities van de kandidaten redelijk nauwkeurig was, was de enige "twist" dat de verschijning van de communicatie vaak gebeurde. Is dat desinformatie of valt alleen de inhoud van de berichten onder het begrip desinformatie of desinformatie?

Dit scenario lijkt tot nu toe uit te beelden: kiezersbeïnvloeding en laat veel grijs gebied over het scala aan ethische of juridische zaken die daarbij komen kijken.

Onze gretige kandidaat besluit de lat hoger te leggen.

Met behulp van AI wordt een deepfake bedacht die de tegenstander lijkt te laten zien dat hij heel lafhartige dingen zegt. Ik weet zeker dat je hebt gemerkt hoe geavanceerd AI wordt in het maken van gesimuleerde versies van echte mensen. Dit omvat het visuele uiterlijk en de maniertjes van mensen zoals specifieke beroemdheden of anderen, samen met het kopiëren en het kunnen uiten van nieuwe verbale uitingen die van die persoon lijken te zijn.

De deepfake wordt vrijgegeven op sociale media. Mensen op sociale media kiezen ervoor om de deepfake te verspreiden. Dus toen je de deepfake ontving, kwam deze niet van een AI-chatbot (hoewel dat zeker het geval zou kunnen zijn) maar van een vertrouwde collega of vriend.

Je gaat ervan uit dat aangezien de deepfake afkomstig is van iemand die je kent en vertrouwt, de deepfake vermoedelijk echt is. Oeps, daar heb je het mis.

Waar staan ​​we in dit voorbeeld nu in de AI die wordt gebruikt voor verkiezingsactiviteiten?

Legitiem of twijfelachtig ethisch of onethisch, volledig onethisch of duidelijk illegaal.

Hier volgt een situatie waarvan we met enige opluchting het erover eens kunnen zijn dat deze totaal illegaal is.

Er wordt een AI-systeem bedacht dat “doet alsof” echte mensen zijn. Het wordt gebruikt om stemmen uit te brengen die via e-mail worden gedaan. De AI maakt gebruik van de kiezerslijsten en berekent welke mensen waarschijnlijk niet gaan stemmen. Namens hen wordt een papieren stembiljet gevraagd. Het papieren stembiljet wordt via de AI ingevuld en naar de verkiezingsregistrar gemaild alsof de stem door de eigenlijke mens is uitgebracht.

Ik denk niet dat iemand kan zeggen dat dit niets anders is dan een illegale verkiezingsactiviteit.

Een AI stemt in plaats van een menselijke kiezer.

Niet toegestaan.

Het kan moeilijk te vangen zijn. Ervan uitgaande dat de checks-and-balances van de kiezers overeenkomen, zou de bedachte AI hiermee weg kunnen komen.

Als de menselijke kiezer misschien ook alleen stemt, hebben we misschien de kans om te beseffen dat er twee stemmen hebben plaatsgevonden, in welk geval het optreden misschien voorbij is. Het kan echter moeilijk zijn om de oorsprong van de frauduleuze stem te achterhalen. Er is ook een mogelijkheid dat beide stemmen kunnen worden genegeerd en daardoor wordt de menselijke kiezer ondermijnd. We kunnen alleen maar hopen dat in ieder geval de kans dat de AI-stem niet als de echte stem wordt beoordeeld, terwijl de door mensen uitgebrachte "dubbele" stem als nep wordt gedumpt. Dat doet pijn als een dubbele klap.

Laten we de boel op scherp zetten.

Sommigen suggereren dat we AI doelbewust moeten ontwerpen als een soort nuttige dienst om te stemmen. De AI-voting-as-a-service zou u op uw verzoek helpen bij het stemmen. U hoeft zich niet langer bezig te houden met het stempapier. In plaats daarvan roept u een op AI gebaseerde app aan die het stempapier online voor u presenteert en u door het stemproces leidt.

De AI kan worden getraind op uw kiezersvoorkeuren. Als zodanig hoeft u niet naar elk van de kandidaatverklaringen of iets anders te kijken. Door op een knop te drukken, zal de AI het volledige stembiljet onderzoeken en stemmen uitbrengen voor elke kandidaat of voorstel, zoals u waarschijnlijk hebt gedaan. Als u dit hebt gedaan, is het stembiljet nu klaar voor u om te bekijken en te ondertekenen.

U hebt het druk en u "gelooft" dat de AI waarschijnlijk goed werk heeft verricht door keuzes voor u te kiezen, daarom ondertekent u het stembiljet oprecht en keurt u het goed om te worden uitgebracht.

Klinkt best handig.

Stel natuurlijk dat de AI op de een of andere manier in het geheim is gemanipuleerd, zodat het op bepaalde kandidaten of bepaalde voorstellen stemde. Je realiseert je misschien niet dat de oplossing binnen is. Als het tijd is om te ondertekenen en goed te keuren, werp je nauwelijks een blik en ga je er gewoon van uit dat AI je bod heeft gedaan.

Ben jij een onschuldige waar misbruik van is gemaakt?

Of ben je een kiezer die niet ijverig was en je eigen stemrecht ondermijnde?

John F. Kennedy zei de beroemde uitspraak: "De onwetendheid van één kiezer in een democratie schaadt de veiligheid van iedereen."

Ja, sommigen zouden reageren, dat is volkomen oneerlijk tegenover de kiezer die voor de gek werd gehouden door de AI. Als de AI cyberbeveiliging had gekraakt om te stemmen op manieren die de kiezer niet wist, is dit een frauduleuze handeling van de AI of echt de maker van de AI. Je kunt de kiezer niet de schuld geven. Anderen zouden erop aandringen dat elke kiezer die ermee instemt een AI te gebruiken voor stemhulp, ten koste van zichzelf het besef moet hebben dat hij zich zijn stem zou kunnen toe-eigenen.

Laten we schakelen, laten we eens kijken naar AI die stemsystemen ondermijnt.

AI kan worden bedacht om:

  • Truc stemsystemen
  • Barst in stemsystemen
  • Stemsystemen wijzigen
  • Overnamecontrole van stemsystemen
  • Ingrijpen in de rapportage vanuit stemsystemen
  • Bedrieg de mensen die de stemsystemen runnen
  • Help mensen die fraude proberen te plegen in stemsystemen
  • Overige

Elk van die benaderingen heeft de neiging om cyberbeveiligingscapaciteiten te combineren met het gebruik van AI. In die zin moeten we over het algemeen al over het algemeen op onze hoede zijn voor die manieren om cybercriminaliteit te plegen die verband houdt met verkiezingen.

AI heeft het potentieel om cybercriminaliteit meer uitgesproken te maken.

Een belangrijke additieve eigenschap is dat de kwaadwillende actor mogelijk verkiezingsfraude kan plegen zonder er direct bij betrokken te zijn. Ze kunnen op een verdere armlengte verwijderd zijn van schuld. Een andere is dat de fraudeur misschien niet veel hoeft te weten over hoe hij per se verkiezingscorruptie kan plegen. Ze laten de AI al het werk voor hen doen.

Conclusie

We zullen onvermijdelijk in de war raken door beweringen dat AI is gebruikt om onze verkiezingen te corrumperen.

Zelfs als de beweringen in principe ongegrond zijn, zal het potentieel om de krantenkoppen te halen om te zeggen dat AI erbij betrokken was, voldoende zijn om te schrikken en misleidende debatten op gang te brengen. Dit zal op zijn beurt de toch al bittere beschuldigingen over stemkwesties en verkiezingsproblemen verergeren.

Het gevaar is er ook een van het aanmoedigen van uitsluiting.

Als kiezers geloven dat AI op de een of andere manier heeft geholpen bij het bederven of corrumperen van verkiezingsactiviteiten (ongeacht of het geloof gegrond of ongegrond is), kan dit alleen al ertoe leiden dat mensen minder gaan stemmen en gedesillusioneerd raken door alles bij elkaar te stemmen. Wanneer mensen niet langer geloven dat hun stem correct zal worden geteld, wekken ze gewoonlijk een gevoel van ongeloof in de verkiezingsresultaten en de democratie.

Franklin D. Roosevelt wees op het belang van bewustzijn als het gaat om onze verkiezingen: “Democratie kan niet slagen tenzij degenen die hun keuze kenbaar maken, bereid zijn verstandig te kiezen. De echte waarborg van democratie is daarom onderwijs.”

AI zal stukje bij beetje zijn weg vinden naar het stemproces. U moet er rekening mee houden dat dit op een dual-use AI-basis zal zijn. We kunnen proberen AI te gebruiken als een versterkende kracht om vrije en eerlijke verkiezingen te garanderen. Anderen zullen tegelijkertijd proberen AI te gebruiken als een middel om onze verkiezingen te corrumperen. Het is essentieel dat we ons bewust worden van en opgeleid worden over hoe AI het stemproces gaat betreden.

Voor nu nog een laatste opmerking. Ik stem er vurig voor dat we AI gebruiken om vrije en eerlijke verkiezingen te steunen en te inspireren, terwijl we alert blijven op degenen die in plaats daarvan AI zouden willen gebruiken om het stemmen en onze democratie te ondermijnen.

Ik hoop dat iedereen met mij zal stemmen over dat ontegenzeggelijk essentiële voorstel (behalve natuurlijk voor de boosdoeners die verderfelijk anders verlangen).

Bron: https://www.forbes.com/sites/lanceeliot/2022/11/07/ai-ethics-and-ai-law-deeply-disturbed-by-ai-used-to-fraudulently-influence-or- corrupte-verkiezingen/