AI-ethiek en AI-wetgeving wegen belangrijke manieren af ​​om die onlangs vrijgegeven AI-rechtenverklaring te implementeren, inclusief en verbazingwekkend door AI ronduit te gebruiken

Het lijdt weinig twijfel dat we blauwdrukken nodig hebben in ons dagelijks leven.

Als je dat lang voorziene droomhuis van je gaat bouwen, doe je er verstandig aan om eerst een bruikbare blauwdruk samen te stellen.

Een blauwdruk toont op een tastbare en gedocumenteerde manier welk visionair perspectief met grote ogen ook in je hoofd kan worden opgesloten. Degenen op wie een beroep zal worden gedaan om uw geliefde woning te bouwen, zullen in staat zijn om naar de blauwdruk te verwijzen en de details vast te leggen over hoe de klus te klaren. Blauwdrukken zijn handig. Het ontbreken van een blauwdruk is ongetwijfeld problematisch voor het aanpakken van elk soort complex karwei of project.

Laten we dit ietwat sentimentele maar oprechte eerbetoon aan blauwdrukken verplaatsen naar het rijk van kunstmatige intelligentie (AI).

Degenen onder u die inhoudelijk geïnteresseerd zijn in AI, zijn zich er misschien vaag van bewust dat een belangrijke beleidsgerichte plan onlangs in de VS is uitgebracht en dat aantoonbaar betrekking heeft op de toekomst van AI. Informeel bekend als de AI Bill van rechten, is de officiële titel van het aangekondigde witboek de "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" en is direct online beschikbaar.

Het document is het resultaat van een jarenlange inspanning en zorgvuldige studie door het Office of Science and Technology Policy (OSTP). De OSTP is een federale entiteit die werd opgericht in het midden van de jaren zeventig en dient om de Amerikaanse president en het US Executive Office te adviseren over verschillende technologische, wetenschappelijke en technische aspecten van nationaal belang. In die zin kun je zeggen dat deze AI Bill of Rights een document is dat is goedgekeurd door en onderschreven door het bestaande Amerikaanse Witte Huis.

De AI Bill of Rights toont de: rechten van de mens die de mensheid zou moeten hebben met betrekking tot de komst van AI in ons dagelijks leven. Ik benadruk dit gewichtige punt omdat sommige mensen in eerste instantie verbaasd waren dat dit misschien een soort erkenning was van AI als rechtspersoon en dat dit een litanie van rechten was voor bewuste AI en humanoïde robots. Nee, we zijn er nog niet. Zoals je zo zult zien, zijn we nog lang niet in de buurt van bewuste AI, ondanks de bannerkoppen die ons anders lijken te vertellen.

Oké, dus hebben we een blauwdruk nodig die de mensenrechten beschrijft in een tijdperk van AI?

Ja, dat doen we zeker.

Je zou bijna in een grot moeten worden opgesloten en geen internettoegang hebben om niet te weten dat AI al en in toenemende mate inbreuk maakt op onze rechten. Het recente tijdperk van AI werd aanvankelijk gezien als AI voorgoed, wat betekent dat we AI kunnen gebruiken voor de verbetering van de mensheid. Op de hielen van AI voorgoed kwam het besef dat we ook ondergedompeld zijn in AI voor slecht. Dit omvat AI die is bedacht of zelf is veranderd om discriminerend te zijn en die computationele keuzes maakt die onnodige vooroordelen veroorzaken. Soms is de AI op die manier gebouwd, terwijl hij in andere gevallen in dat ongewenste gebied terechtkomt.

Voor mijn voortdurende en uitgebreide verslaggeving en analyse van AI-recht, AI-ethiek en andere belangrijke technologische en maatschappelijke trends op het gebied van AI, zie: de link hier en de link hier, om er een paar te noemen.

De AI Bill of Rights uitpakken

Ik heb eerder de AI Bill of Rights besproken en zal hier een korte samenvatting geven.

Even terzijde, als je mijn diepgaande voor- en nadelen van de onlangs vrijgegeven AI Bill of Rights wilt weten, heb ik mijn analyse gedetailleerd beschreven in een bericht op de Jurist, Zie de link hier. De Jurist is een opmerkelijke online site voor juridisch nieuws en commentaar, algemeen bekend als een bekroonde juridische nieuwsservice, mogelijk gemaakt door een wereldwijd team van journalisten, redacteuren, commentatoren, correspondenten en inhoudontwikkelaars, en het hoofdkantoor is gevestigd aan de University of Pittsburgh School of Law in Pittsburgh, waar het meer dan 25 jaar geleden begon. Shoutout naar het uitstekende en hardwerkende team van Jurist.

In de AI Bill of Rights zijn er vijf keystone-categorieën:

  • Veilige en effectieve systemen
  • Algoritmische discriminatiebescherming
  • Data Privacy
  • Opmerking en uitleg
  • Menselijke alternatieven, overweging en terugval

Merk op dat ik ze niet heb genummerd van één tot vijf, omdat dit zou kunnen betekenen dat ze in een bepaalde volgorde staan ​​of dat een van de rechten schijnbaar belangrijker is dan de andere. We gaan ervan uit dat ze elk hun eigen verdiensten zijn. Ze zijn in zekere zin allemaal even verdienstelijk.

Als een korte indicatie van waar ze uit bestaan, is hier een fragment uit het officiële witboek:

  • Veilige en effectieve systemen: “Je moet worden beschermd tegen onveilige of ineffectieve systemen. Geautomatiseerde systemen moeten worden ontwikkeld in overleg met diverse gemeenschappen, belanghebbenden en domeinexperts om problemen, risico's en mogelijke gevolgen van het systeem te identificeren."
  • Algoritmische discriminatiebescherming: “Je mag niet worden gediscrimineerd door algoritmen en systemen moeten op een rechtvaardige manier worden gebruikt en ontworpen. Algoritmische discriminatie vindt plaats wanneer geautomatiseerde systemen bijdragen aan een ongerechtvaardigde verschillende behandeling of van invloed zijn op het ongunstig zijn van mensen op basis van hun ras, huidskleur, etniciteit, geslacht (inclusief zwangerschap, bevalling en gerelateerde medische aandoeningen, genderidentiteit, intersekse-status en seksuele geaardheid), religie, leeftijd , nationale afkomst, handicap, veteranenstatus, genetische informatie of enige andere door de wet beschermde classificatie.”
  • Data Privacy: “U moet worden beschermd tegen misbruik van gegevens via ingebouwde beveiligingen en u moet zeggenschap hebben over hoe gegevens over u worden gebruikt. U moet worden beschermd tegen schendingen van de privacy door ontwerpkeuzes die ervoor zorgen dat dergelijke bescherming standaard is opgenomen, inclusief ervoor zorgen dat gegevensverzameling voldoet aan redelijke verwachtingen en dat alleen gegevens worden verzameld die strikt noodzakelijk zijn voor de specifieke context.
  • Kennisgeving en uitleg: “Je moet weten dat er een geautomatiseerd systeem wordt gebruikt en begrijpen hoe en waarom het bijdraagt ​​aan resultaten die van invloed zijn op jou. Ontwerpers, ontwikkelaars en gebruikers van geautomatiseerde systemen moeten algemeen toegankelijke documentatie in begrijpelijke taal verstrekken, inclusief duidelijke beschrijvingen van de algemene werking van het systeem en de rol die automatisering speelt, opmerken dat dergelijke systemen in gebruik zijn, de persoon of organisatie die verantwoordelijk is voor het systeem, en uitleg van resultaten die duidelijk, tijdig en toegankelijk zijn.”
  • Menselijke alternatieven, overweging en terugval: “Je moet je kunnen afmelden, waar van toepassing, en toegang hebben tot een persoon die problemen die je tegenkomt snel kan overwegen en verhelpen. U moet zich, waar nodig, kunnen afmelden voor geautomatiseerde systemen ten gunste van een menselijk alternatief.”

Over het algemeen zijn dit facetten van mensenrechten die al geruime tijd worden gebruikt in de context van AI-ethiek en AI-recht, zie mijn berichtgeving zoals op de link hier. Het witboek trekt schijnbaar niet op magische wijze een konijn uit een hoed met betrekking tot een nieuw ontdekt of opgegraven recht dat tot nu toe niet is opgehelderd in een context van het AI-tijdperk.

Dat is goed.

Je zou kunnen stellen dat de bundeling ervan tot één netjes verpakte en geformaliseerde verzameling een onmisbare dienst levert. Plus, door gezalfd te worden als een veelgeprezen AI Bill van rechten, dit plaatst de hele zaak verder openlijk en bekwaam in het bewustzijn van de publieke sfeer. Het voegt een bestaande overvloed aan ongelijksoortige discussies samen tot een unieke set die nu kan worden uitgebazuind en overgebracht op allerlei belanghebbenden.

Staat u mij toe deze lijst met gunstige reacties op de aangekondigde AI Bill of Rights aan te bieden:

  • Biedt een essentiële compilatie van keystone-principes
  • Dient als een blauwdruk of basis om op voort te bouwen
  • Fungeert als een vocale oproep tot actie
  • Wekt interesse en laat zien dat dit serieuze overwegingen zijn
  • Brengt een groot aantal verschillende discussies samen
  • Stimuleert en draagt ​​bij aan inspanningen voor de adoptie van ethische AI
  • Zal ongetwijfeld bijdragen aan de totstandkoming van AI-wetten
  • Overige

We moeten ook rekening houden met de minder gunstige reacties, rekening houdend met het feit dat er nog veel meer werk moet worden verzet en dat dit slechts het begin is van een lange reis op de moeilijke weg van het besturen van AI.

Als zodanig, enigszins hard of zullen we zeggen opbouwende kritiek op de AI Bill of Rights, zijn onder meer:

  • Niet juridisch afdwingbaar en volledig vrijblijvend
  • Alleen adviserend en niet beschouwd als overheidsbeleid
  • Minder uitgebreid in vergelijking met andere gepubliceerde werken
  • Bestaat voornamelijk uit brede concepten en mist implementatiedetails
  • Het wordt een uitdaging om dit om te zetten in levensvatbare praktische wetten
  • Schijnbaar stil over de dreigende kwestie van het mogelijk verbieden van AI in sommige contexten
  • Onderkent marginaal de voordelen van het gebruik van goed doordachte AI
  • Overige

Misschien is het meest prominente scherpe commentaar gericht op het feit dat deze AI Bill of Rights niet juridisch afdwingbaar is en dus geen water heeft als het gaat om het opzetten van duidelijke doelpalen. Sommigen hebben gezegd dat hoewel het witboek nuttig en bemoedigend is, het beslist tanden mist. Ze vragen zich af wat er kan komen van een naar verluidt holle getande reeks handige voorschriften.

Ik zal zo dadelijk ingaan op die bijtende opmerkingen.

Ondertussen vermeldt het witboek overvloedig de beperkingen van wat deze AI Bill of Rights inhoudt:

  • “De blauwdruk voor een AI Bill of Rights is niet-bindend en vormt geen Amerikaans overheidsbeleid. Het vervangt, wijzigt of leidt geen interpretatie van een bestaand statuut, regelgeving, beleid of internationaal instrument. Het vormt geen bindende richtlijn voor het publiek of federale instanties en vereist daarom geen naleving van de hierin beschreven principes. Het is ook niet bepalend voor het standpunt van de Amerikaanse regering in internationale onderhandelingen. De goedkeuring van deze principes voldoet mogelijk niet aan de vereisten van bestaande statuten, regelgeving, beleid of internationale instrumenten, of de vereisten van de federale agentschappen die ze afdwingen. Deze principes zijn niet bedoeld om wettige activiteiten van een overheidsinstantie, met inbegrip van wetshandhaving, nationale veiligheid of inlichtingenactiviteiten, te verbieden of te beperken” (volgens het witboek).

Voor degenen die de AI Bill of Rights snel hebben ondermijnd als juridisch niet-bindend, laten we een beetje een gedachte-experiment doen met die bijtende bewering. Stel dat het witboek werd vrijgegeven en de volledige kracht van de wet had. Ik durf te zeggen dat het resultaat enigszins catastrofaal zou zijn, althans in de mate van zowel juridische als maatschappelijke reacties op de proclamatie.

Wetgevers zouden in het geweer komen dat de inspanning niet de normatieve processen en juridische procedures had ondernomen om dergelijke wetten op te stellen. Bedrijven zouden terecht woedend zijn als er nieuwe wetten zouden ontstaan ​​zonder voldoende kennisgeving en bewustzijn van wat die wetten zijn. Allerlei consternatie en verontwaardiging zouden het gevolg zijn.

Geen goede manier om de rechten van de mensheid te versterken in een AI-tijdperk.

Bedenk dat ik deze discussie eerder was begonnen door de waarde en vitaliteit van blauwdrukken ter sprake te brengen.

Stel je voor dat iemand de stap van het maken van blauwdrukken oversloeg en meteen in het bouwen van je droomhuis sprong. Hoe denk je dat het huis eruit zou zien? Het lijkt een goede gok dat het huis niet echt zou overeenkomen met wat je in gedachten had. De resulterende woning kan een totale puinhoop zijn.

De essentie is dat we blauwdrukken nodig hebben en we hebben er nu een om verder te gaan met het uitzoeken van oordeelkundige AI-wetten en het mogelijk maken van ethische AI-adoptie.

Ik zou daarom willen ingaan op de manieren waarop deze AI Bill of Rights blauwdruk als het ware in een huis kan worden veranderd. Hoe gaan we de blauwdruk gebruiken? Wat zijn de geschikte vervolgstappen? Kan deze blauwdruk volstaan, of heeft het meer vlees op de botten nodig?

Voordat we ingaan op die forse zaken, wil ik er eerst zeker van zijn dat we allemaal op dezelfde lijn zitten over de aard van AI en waar de status van vandaag uit bestaat.

Het record rechtzetten over de AI van vandaag

Ik wil een zeer nadrukkelijke uitspraak doen.

Ben je klaar?

Er is tegenwoordig geen AI die bewust is.

Dit hebben we niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan precies voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere wonderbaarlijke manier spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild zouden speculeren over bewuste AI, zou deze discussie een radicaal andere richting kunnen uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens. Sterker nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Ik zou sterk willen voorstellen dat we de zaken nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Wees heel voorzichtig met het antropomorfiseren van de hedendaagse AI.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonafstemmingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit alles heeft met name belangrijke implicaties voor AI-ethiek en biedt een handig venster op de geleerde lessen (zelfs voordat alle lessen zijn getrokken) als het gaat om het proberen om AI wetgeving te maken.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen vooraf dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die verschillende landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI Ethics-begrippen. Zoals eerder hierin is benadrukt, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Nu ik een nuttige basis heb gelegd, zijn we klaar om verder te duiken in de AI Bill of Rights.

Vier essentiële manieren om de AI Bill of Rights te implementeren

Iemand overhandigt je een blauwdruk en zegt dat je aan het werk moet.

Wat doe je?

In het geval van de AI Bill of Rights als blauwdruk, overweeg dan deze vier essentiële stappen om vooruit te komen:

  • Dienen als input voor het formuleren van AI-wetten: Gebruik de blauwdruk om te helpen bij het formuleren van AI-wetten, hopelijk op een afgestemde basis op federaal, staats- en lokaal niveau (misschien ook ter ondersteuning van internationale AI-juridische inspanningen).
  • Hulp om AI-ethiek breder geaccepteerd te krijgen: Gebruik de blauwdruk om AI Ethics-formuleringen te bevorderen (soms aangeduid als "zachte wetten" in vergelijking met wettelijk bindende "harde wetten"), en doe dit om bedrijven, individuen, overheidsinstanties en andere kiesdistricten te inspireren en te begeleiden naar betere en consistentere ethische AI-resultaten.
  • Vorm AI-ontwikkelingsactiviteiten: Gebruik de blauwdruk om de creatie van AI-ontwikkelingsmethodologieën en trainingsaspecten te stimuleren, om te proberen AI-ontwikkelaars en degenen die AI in de praktijk brengen of gebruiken, meer bewust te maken van hoe AI kan worden ontworpen volgens de gewenste AI-ethische voorschriften en in anticipatie van dreigende AI-wetten die worden uitgevaardigd.
  • Motiveer de komst van AI om te helpen bij het beheersen van AI: Gebruik de blauwdruk om AI te bedenken die zal worden gebruikt om te dienen als een check-and-balance tegen andere AI die mogelijk het ongunstige territorium betreedt. Dit is een van die macroscopische gezichtspunten waarbij we juist datgene dat we ogenschijnlijk zorgwekkend vinden, kunnen gebruiken om ook (ironisch genoeg, zou je kunnen zeggen) te helpen bij het beschermen van ons.

Ik heb elk van de bovengenoemde vier stappen besproken in mijn column-posts.

Voor deze discussie wil ik me concentreren op de vierde genoemde stap, namelijk dat de AI Bill of Rights kan dienen als een motivator voor de komst van AI om te helpen bij het beheersen van AI. Dit is een enigszins schokkende of verrassende stap voor velen die nog niet volledig zijn doorgedrongen in dit AI-oprukkende rijk.

Sta me toe het uit te leggen.

Een simpele analogie zou de oplossing moeten zijn. We zijn tegenwoordig allemaal gewend aan cybersecurity-inbreuken en hackerinbraken. Bijna elke dag horen we over of worden we getroffen door een of andere laatste maas in onze computers waardoor kwaadaardige boosdoeners onze gegevens kunnen stelen of een lafhartig stukje ransomware op onze laptops kunnen plaatsen.

Een manier om tegen die verachtelijke pogingen te vechten, is het gebruik van gespecialiseerde software die deze inbraken probeert te voorkomen. U heeft vrijwel zeker een antivirussoftwarepakket op uw computer thuis of op het werk. Er is waarschijnlijk iets soortgelijks op uw smartphone, of u zich nu realiseert dat het erop staat of niet.

Mijn punt is dat je soms vuur met vuur moet bestrijden (zie mijn bericht hierover, zoals bij .) de link hier en de link hier).

In het geval van AI die in het verboten-rijk belandt AI voor slecht, we kunnen proberen te gebruiken AI voorgoed dat worstelt met die kwaadaardige AI voor slecht. Dit is natuurlijk geen wondermiddel. Zoals u weet, is er een voortdurend kat-en-muisspel gaande tussen boosdoeners die proberen in te breken in onze computers en de vooruitgang die wordt geboekt op het gebied van cyberbeveiliging. Het is een bijna eindeloos spel.

We kunnen AI gebruiken om te proberen om te gaan met AI die een verboden pad is ingeslagen. Dit zal helpen. Het zal niet bepaald een wondermiddel zijn, aangezien de vijandige AI die het doelwit is, vrijwel zeker zal worden bedacht om dergelijke beveiligingen te vermijden. Dit zal voortdurend kat-en-muis van AI versus AI zijn.

In ieder geval zal de AI die we gebruiken om onszelf te beschermen enige mate van bescherming bieden tegen slechte AI. We moeten dus ongetwijfeld AI bedenken die ons kan beschermen of afschermen. En we zouden ook moeten proberen de beschermende AI te maken om zich aan te passen als de slechte AI zich aanpast. Er zal een felle schijn zijn van bliksemsnelle kat-en-muis.

Niet iedereen is blij met deze vergroting van de rol van AI.

Degenen die AI al zien als een homogeen amorf conglomeraat, zouden kippenvel en nachtmerries krijgen bij dit geveinsde AI-versus-AI-gambiet. Als we vuur tegen vuur proberen te werpen, maken we misschien alleen maar een nog groter vuur. AI wordt een enorm vreugdevuur, een vuur dat we niet langer onder controle hebben en ervoor kiezen om de mensheid tot slaaf te maken of ons van de planeet te vegen. Als het gaat om het bespreken van AI als een existentieel risico, worden we meestal ertoe gebracht te geloven dat alle AI samen zullen komen, zie mijn discussie over deze kwesties op de link hier. Zie je, er is ons verteld dat elk stukje AI zijn broeders AI zal grijpen en één grote eenheidsfamilie van opperheer zal worden.

Dat is het vreselijke en beslist verontrustende scenario van bewuste AI als naadloze alles-voor-een en een-voor-alle maffia.

Hoewel u vrij bent om dergelijke vermoedens te doen dat dit ooit zou kunnen gebeuren, verzeker ik u dat de AI die we vandaag hebben, bestaat uit vrachtwagenladingen van losgekoppelde ongelijksoortige AI-programma's die geen specifieke manier hebben om met elkaar samen te spannen.

Dat gezegd hebbende, ben ik er zeker van dat degenen die vurig in AI-complottheorieën geloven, erop zullen aandringen dat ik dit doelbewust heb gezegd om de waarheid te verbergen. Aha! Misschien word ik afbetaald door de AI van vandaag die al de grote AI-overname plant (ja siree, ik zal in rijkdom baden zodra de AI-overheersers heersen). Of, en ik ben zeker geen voorstander van deze andere invalshoek, misschien ben ik me blindelings niet bewust van hoe AI in het geheim achter onze rug om complotten smeedt. Ik denk dat we zullen moeten afwachten of ik deel uitmaak van de AI-coup of een AI-abject patsy (ouch, dat doet pijn).

Terugkomend op aardse overwegingen, laten we kort onderzoeken hoe hedendaagse AI kan worden gebruikt om de implementatie van de AI Bill of Rights te ondersteunen. Ik zal hier gemakshalve en beknopt naar verwijzen als: Goede AI.

We zullen de vijf hoekstenen gebruiken die zijn opgenomen in de AI Bill of Rights:

  • Goede AI om te promoten Veilige en effectieve systemen: Telkens wanneer u een AI-systeem ondergaat of gebruikt, probeert de Good AI erachter te komen of de AI die wordt gebruikt onveilig of ineffectief is. Bij een dergelijke detectie kan de goede AI u waarschuwen of andere acties ondernemen, waaronder het blokkeren van de slechte AI.
  • Goede AI om te bieden Algoritmische discriminatiebescherming: Bij het gebruik van een AI-systeem dat discriminerende algoritmen kan bevatten, Goede AI probeert vast te stellen of er onvoldoende bescherming voor u is en probeert vast te stellen of er inderdaad sprake is van ongepaste vooroordelen in de gebruikte AI. The Good AI kan u informeren en mogelijk ook automatisch de andere AI rapporteren aan verschillende autoriteiten, zoals bepaald door AI-wetten en wettelijke vereisten.
  • Goede AI om te bewaren Data Privacy: Dit type goede AI probeert u te beschermen tegen inbreuken op de gegevensprivacy. Wanneer een andere AI gegevens van u wil opvragen die misschien niet echt nodig zijn, maakt de Goede AI u bewust van de overschrijdingsactie. De goede AI kan uw gegevens mogelijk ook maskeren op een manier die bij invoer aan de andere AI uw gegevensprivacyrechten behoudt. Enz.
  • Goede AI voor oprichting Kennisgeving en uitleg: We zullen waarschijnlijk allemaal AI-systemen tegenkomen die het erg missen om goede en passende meldingen te geven en die helaas geen adequate verklaring voor hun acties kunnen geven. Goede AI kan proberen de andere AI te interpreteren of te ondervragen, om mogelijk meldingen en uitleg te identificeren die hadden moeten worden verstrekt. Zelfs als dat in een bepaald geval niet haalbaar is, zal de Goede AI u op zijn minst waarschuwen voor de tekortkomingen van de andere AI en mogelijk de AI rapporteren aan aangewezen autoriteiten op basis van vastgestelde AI-wetten en wettelijke vereisten.
  • Goede AI voor het aanbieden Menselijke alternatieven, overweging en terugval: Stel dat u een AI-systeem gebruikt en de AI lijkt de taak niet aan te kunnen. Je realiseert je misschien niet dat het mis gaat, of je bent misschien wat op je hoede en weet niet wat je aan de situatie moet doen. In zo'n geval zou Good AI stilzwijgend onderzoeken wat de andere AI aan het doen is en je zou kunnen waarschuwen voor essentiële zorgen over die AI. U wordt dan gevraagd om een ​​menselijk alternatief voor de AI aan te vragen (of de Goede AI kan dit namens u doen).

Om verder te begrijpen hoe dit soort Goede AI kan worden ontwikkeld en gebruikt, zie mijn populaire en hoog gewaardeerde AI-boek (vereerd om te zeggen dat het is genoteerd als een "Top Tien") over wat ik over het algemeen heb verwezen als AI-beschermengelen, zie de link hier.

Conclusie

Ik weet wat je denkt. Als we een goede AI hebben die is ontworpen om ons te beschermen, stel dat de goede AI dan corrupt raakt en slechte AI wordt. De beroemde of beruchte Latijnse slogan lijkt volledig relevant voor deze mogelijkheid: Wat is de custodiet ipsos custode?

De uitdrukking wordt toegeschreven aan de Romeinse dichter Juvenal en is te vinden in zijn werk getiteld satires, en kan vrij vertaald worden als de betekenis van wie de bewakers zelf zal bewaken of bewaken. Veel films en tv-programma's zoals: Star Trek hebben deze lijn herhaaldelijk gebruikt.

Dat komt zeker omdat het een uitstekend punt is.

En ja hoor, alle AI-wetten die worden uitgevaardigd, moeten zowel de slechte AI omvatten als zelfs de goede AI die slecht wordt. Daarom zal het van cruciaal belang zijn om verstandige en uitgebreide AI-wetten te schrijven. Wetgevers die gewoon willekeurige legalese tegen de muur proberen te gooien en hopen dat het blijft hangen met betrekking tot AI-wetten, zullen merken dat ze het doel grondig missen.

Dat hebben we niet nodig.

We hebben noch de tijd noch kunnen we de maatschappelijke kosten dragen om het hoofd te bieden aan onvoldoende opgestelde AI-wetten. Ik heb erop gewezen dat we helaas soms getuige zijn van nieuwe AI-gerelateerde wetten die slecht zijn samengesteld en vol zitten met allerlei juridische kwalen, zie bijvoorbeeld mijn diepgaande analyse van de auditwet van New York City (NYC) AI Biases op de link hier.

Laten we ervoor zorgen dat we de AI Bill of Rights-blauwdruk die we nu in handen hebben met betrekking tot AI op de juiste manier gebruiken. Als we de blauwdruk negeren, hebben we verloren omdat we ons spel hebben opgevoerd. Als we de blauwdruk verkeerd implementeren, moeten we ons schamen dat we ons een nuttige basis hebben toegeëigend.

De gewaardeerde Romeinse dichter Juvenal zei nog iets dat we in deze omstandigheid kunnen gebruiken: Anima sana in corpore sano.

Over het algemeen vertaalt dit zich in de bewering dat het verstandig zou zijn om zowel een gezonde of gezonde geest als een gezond of gezond lichaam te hebben. Dit stelt ons in staat om elke vorm van zwoegen te doorstaan, volgens Juvenal, en zal zeker de enige weg zijn naar een leven van vrede of deugd.

Tijd voor ons om een ​​gezonde geest en een gezond lichaam te gebruiken om ervoor te zorgen dat de mensheid ervoor zorgt dat onze mensenrechten behouden blijven en stevig worden versterkt in de opkomende wereld van alomtegenwoordige en soms ongunstige AI. Dat is een goed advies van de Romeinen waar we ons aan moeten houden in de drukte van vandaag te midden van een AI-pell-mell-tijdperk en een toekomst die beslist gevuld is met zowel goede als slechte AI.

Bron: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-right-inclusief-en-verbazingwekkend-door-ai-ronduit te gebruiken/