Het implanteren van juridische redenering in AI zou op een slimme manier kunnen zorgen voor afstemming tussen menselijke waarden, zegt AI-ethiek en AI-wetgeving

In de column van vandaag ga ik een groot aantal ogenschijnlijk ongelijksoortige AI-gerelateerde onderwerpen verweven tot één mooi geweven stof.

Ben je klaar?

Stel je voor dat je een door AI aangedreven app gebruikt die je helpt bij het uitvoeren van een of andere belangrijke taak. Misschien is het een financiële kwestie of kan het verband houden met de gezondheid. De essentie is dat je afhankelijk bent van de AI om het juiste te doen en op een veronderstelde veilige en gezonde manier te presteren.

Stel dat de AI zich op onethisch terrein begeeft.

Je realiseert je misschien niet dat de AI dit doet.

De AI zou bijvoorbeeld kunnen vertrouwen op mogelijk verborgen discriminerende factoren zoals ras of geslacht, hoewel je misschien geen haalbare manier hebt om het ongewenste gebruik te onderscheiden. Daar sta je dan, helemaal alleen, aan het kortste eind te trekken via een AI die vanaf het begin op een problematische manier is bedacht of erin is geslaagd om te sturen op onvoorspelbare en grensoverschrijdende ethische bedreigingen (ik zal meer zeggen over dit in een oogwenk).

Wat kun je doen of wat kan er worden gedaan aan AI die ervoor kiest om een ​​onethische weg in te slaan?

Naast het van tevoren proberen om de AI zo te construeren dat deze dit soort verraderlijke acties niet zal uitvoeren, heb ik eerder ook beschreven dat er een toenemende interesse is in het inbedden van een AI-ethiekcontrole onderdeel van het snelgroeiende moeras van verder alles-gaat-AI-systemen uit het Wilde Westen die op de markt worden gegooid. Het idee is dat om te proberen te voorkomen dat een met AI doordrenkte app buiten ethische dimensies gaat, we extra AI kunnen gebruiken om een ​​check-and-balance te doen. Deze toegevoegde AI bevindt zich mogelijk buiten de gerichte AI-app of kan een onderdeel zijn dat rechtstreeks is ingesloten of geïmplanteerd in de AI die we willen controleren.

Zoals ik al eerder heb gezegd, zie de link hier: “Een recent opkomende trend bestaat uit het proberen om ethische vangrails in de AI te bouwen die zullen blijven hangen wanneer de rest van een AI-systeem de vooraf ingestelde ethische grenzen begint te overschrijden. In zekere zin is het doel om de AI zelf te gebruiken om te voorkomen dat het ethisch fout gaat. Je zou kunnen zeggen dat we ernaar streven om AI zichzelf te laten genezen” (Lance Eliot, “Crafting Ethical AI That Monitors Onethical AI And Tries To Deter Bad AI From Acting Up”, Forbes, 28 maart 2022).

Misschien vind je ook mijn boek over relevant interessant AI-bewakingsbots, ook wel beschermengelen genoemd, die de technische onderbouwing van deze state-of-the-art AI-in-AI ingebedde dubbelcheckers dekt, zie de link hier.

Het komt erop neer dat uw spek gelukkig kan worden gered door het gebruik van een ingesloten AI-element voor dubbele controle van ethiekmeting dat is bedacht en geïmplanteerd in een AI-app die u gebruikt. Maar zal dat genoeg zijn als een bewaker om er echt voor te zorgen dat de AI je niet helemaal stijf maakt en je zelfs op schadelijk terrein begeeft?

Zie je, de AI-app zou ogenschijnlijk kunnen presteren onwettig handelingen.

Het is één ding om AI te hebben die in een grijs gebied terechtkomt van wat wij beschouwen als ethisch of onethisch gedrag. Een even verontrustend gedrag en waarschijnlijk verergerende bezorgdheid houden in dat AI als het ware over de haai springt en afdaalt in de slordige duisternis van ronduit onwettige handelingen.

Onwettige AI is slecht. Het is slecht om onwettige AI onbeheerd te laten. Sommige rechtsgeleerden maken zich openlijk zorgen dat de opkomst en alomtegenwoordigheid van AI onze schijn van de van de rechtsstaat, zie mijn analyse op de link hier.

Wacht even, zou je kunnen zeggen.

Je zou in de verleiding kunnen komen om te denken dat AI-ontwikkelaars dat wel zouden doen nooit hun AI programmeren om tegen de wet in te gaan. Onvoorstelbaar. Alleen kwaadaardige schurken zouden dit doen (waarbij overigens in gedachten moet worden gehouden dat er mensen zijn die opzettelijk AI bedenken en gebruiken voor kwade doeleinden, een groeiend interessegebied voor criminelen en anderen die AI willen gebruiken voor snode activiteiten).

Sorry, maar het is wishful thinking om aan te nemen dat alle niet-kwaadaardige AI-ontwikkelaars er strikt voor zullen zorgen dat hun AI volledig gezagsgetrouw is. Het kan zijn dat de AI zichzelf aanpast en afdwaalt in illegale activiteiten. Natuurlijk is er ook het potentieel dat de AI-ontwikkelaars wilden dat de AI illegaal handelde of dat ze niet wisten wat illegale versus legale handelingen waren toen ze de AI aan het maken waren (ja, dit is heel goed mogelijk, namelijk dat een heads-down all-tech AI-team kan onwetend zijn over de juridische shenanigans van hun AI, wat niet te verontschuldigen is en toch met een alarmerende frequentie gebeurt).

Wat kan hier aan gedaan worden?

Nogmaals, naast het proberen ervoor te zorgen dat de AI out-the-gate ijzersterk en legaal is, is een aanvullende benadering om op stoom te komen het inbedden of implanteren van een AI-component die juridische dubbele controle uitvoert voor de rest van de AI-app. Stil zittend en vaak onaangekondigd, observeert deze toegevoegde AI de rest van de AI om te proberen te onderscheiden of de AI schurkenstaten gaat worden of op zijn minst de grenzen van wettelijke of regelgevende opgelegde beperkingen overschrijdt.

We hebben nu twee soorten AI-dubbelcontrole die mogelijk zijn ingebed in een AI-app:

  • AI-ethiek dubbelchecker: In realtime beoordeelt dit onderdeel of deze AI-invoegtoepassing de rest van de AI op ethisch en onethisch gedrag dat de AI vertoont
  • AI Juridische dubbelchecker: In real-time beoordeelt dit onderdeel of deze AI-invoegtoepassing de rest van de AI om zeker te zijn dat de AI binnen de wettelijke hoekstenen blijft en nieuwe illegale activiteiten door de AI kan worden opgespoord

Ter verduidelijking: dit zijn relatief nieuwe opvattingen en als zodanig kan de AI die u vandaag gebruikt zich in een van deze huidige omstandigheden bevinden:

  • AI die helemaal geen dubbelcheckers bevat
  • AI met een AI Ethics-dubbelchecker, maar geen andere dubbelcheckers
  • AI met een AI Legal-dubbelchecker, maar geen andere dubbelcheckers
  • AI die zowel een AI Ethics dubbelchecker als een AI Legal dubbelchecker heeft
  • Overige

Er zijn enkele opvallend lastige aspecten aan het naast elkaar laten werken van de AI Ethics-dubbelchecker en de AI Legal-dubbelchecker in een AI-app als verwante broer en zus. Dit is een vorm van dualisme die moeilijker te coördineren is dan je zou denken (ik denk dat we allemaal weten dat broers en zussen de hechtste banden kunnen hebben, hoewel ze van tijd tot tijd ook kunnen vechten als de eikels en heftige tegengestelde keer bekeken).

Ik heb dit soort moeilijk uitvoerig besproken dualisme: “Er doet zich een verwaarloosd dualisme voor in AI voor sociaal welzijn, waarbij zowel de rol van kunstmatige morele keuzevrijheid als kunstmatige juridische redenering in geavanceerde AI-systemen niet wordt betrokken. Inspanningen van AI-onderzoekers en AI-ontwikkelaars hebben de neiging zich te concentreren op het maken en inbedden van kunstmatige morele agenten om morele besluitvorming te begeleiden wanneer een AI-systeem in het veld actief is, maar hebben zich niet ook gericht op en gekoppeld aan het gebruik van kunstmatige juridische redeneringsmogelijkheden , wat even noodzakelijk is voor robuuste morele en juridische resultaten” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good”, Harvard University CRCS Annual Conference 2020, Harvard Centrum voor Onderzoek en Computation Society)

Als je wilt weten waarom er een spanning bestaat tussen een AI Ethics-dubbelchecker en een AI Legal-dubbelchecker, vind je misschien dit opmerkelijke citaat van geestverruimende conceptuele waardigheid: "De wet kan een bepaalde handeling toestaan, ook al is die daad immoreel; en de wet kan een handeling verbieden, ook al is die handeling moreel toelaatbaar of zelfs moreel vereist” (Shelly Kagan, De grenzen van moraliteit, 1998).

Laten we onze focus een beetje verleggen en kijken hoe deze dubbelcheckers passen in een ander zeer nauwkeurig onderzocht AI-onderwerp, namelijk Verantwoordelijke AI of een gezamenlijke overweging van de afstemming van menselijke waarden en AI.

Het algemene idee is dat we AI willen die zich houdt aan de juiste en wenselijke menselijke waarden. Sommigen noemen dit Verantwoordelijke AI. Anderen discussiëren op dezelfde manier Verantwoordelijke AI, Betrouwbare AI en AI-uitlijning, die allemaal hetzelfde hoeksteenprincipe raken. Zie voor mijn bespreking van deze belangrijke kwesties de link hier en de link hier, om er een paar te noemen.

Hoe kunnen we ervoor zorgen dat AI aansluit bij menselijke waarden?

Zoals eerder gesuggereerd, zouden we hopen dat AI-ontwikkelaars op de hoogte zouden zijn van het ontwikkelen van AI die verantwoordelijke AI-naleving bereikt. Helaas is dat misschien niet het geval, zoals eerder uiteengezet. Bovendien kunnen ze proberen dit te doen, maar desalniettemin eindigt de AI zichzelf aan te passen buiten het meest opvallende gebied van ethisch gedrag of mogelijk in onwettige wateren.

Oké, dan moeten we onze handige dandy-dubbelcheckers overwegen als een middel om deze risico's en blootstellingen te versterken. Het gebruik van een goed doordachte AI-ethiek-dubbelchecker kan wezenlijk helpen bij het afstemmen van AI op menselijke waarden. Evenzo kan het gebruik van een goed doordachte AI Legal double-checker inhoudelijk helpen bij het afstemmen van AI op menselijke waarden.

Een cruciaal en nog niet bekend middel om te komen tot Responsible AI, Trustworthy AI, Accountable AI, AI Alignment, enz. AI Juridische dubbelchecker die onvermoeibaar zou werken als een dubbele controle op de AI waarin ze zijn ingebed.

In deze discussie hierin wil ik wat meer in detail treden over de aard en constructies van AI Juridische dubbelcheckers die mogelijk in AI zijn ingebed. Om dit te doen, kan het nuttig zijn om wat aanvullende achtergrondinformatie met u te delen over het algemene onderwerp van AI en recht.

Voor een no-nonsense onderzoek naar hoe AI en de wet zich met elkaar vermengen, zie mijn discussie op de link hier. In mijn kritische blik op de AI en recht koppeling, geef ik deze eenvoudige opvatting van twee belangrijke manieren om AI en de wet met elkaar in verband te brengen:

  • (1) Wet toegepast op AI: De formulering, vaststelling en handhaving van wetten zoals toegepast op de regulering of het bestuur van kunstmatige intelligentie in onze samenleving
  • (2) AI-toegepast op de wet: Kunstmatige-intelligentietechnologie ontwikkeld en toegepast in de wet, waaronder AI-based Legal Reasoning (AILR) doordrenkt met LegalTech hightech-apps om autonoom of semi-autonoom advocatentaken uit te voeren

Het eerste genoemde gezichtspunt bestaat uit het overwegen hoe bestaande en nieuwe wetten AI gaan beheersen. Het tweede vermelde perspectief heeft te maken met het toepassen van AI op de wet.

Bij deze laatste categorie wordt doorgaans gebruik gemaakt van AI-based Legal Reasoning (AILR) in verschillende online tools die door advocaten worden gebruikt. AI kan bijvoorbeeld deel uitmaken van een Contract Life Cycle Management (CLM)-pakket dat advocaten helpt door contractuele taal te identificeren die nuttig zal zijn bij het opstellen van nieuwe contracten of die contracten kan detecteren met juridisch slappe taal die ongelukken of juridische mazen mogelijk maakt (voor mijn blik op zogenaamde "wetsgeuren" die door AI kunnen worden waargenomen, zie de link hier).

We zullen onvermijdelijk AI toepassen op de wet die beschikbaar komt voor gebruik door het grote publiek en waarvoor geen advocaat nodig is om op de hoogte te zijn. Op dit moment, als gevolg van verschillende beperkingen, waaronder de UPL (Unauthorized Practical of Law), is het beschikbaar maken van op AI gebaseerde apps voor juridisch advies een netelige en controversiële kwestie, zie mijn discussie op de link hier.

Ik heb deze inleiding over AI en recht ter sprake gebracht om erop te wijzen dat een ander instrumenteel gebruik van AI, toegepast op de wet, zou zijn om AI Legal dubbelcheckers te creëren.

Ja, hetzelfde soort technologische bekwaamheid dat betrokken is bij het toepassen van AI op de wet, kan als een dubbele taak dienen door de AI te gebruiken om te dienen als een ingebedde of geïmplanteerde AI Juridische dubbelchecker. De AI Legal dubbelchecker is een onderdeel dat thuis moet zijn in juridische facetten. Wanneer de rest van de AI-app verschillende acties uitvoert, meet de AI Legal-dubbelchecker of de AI-app dit legaal en binnen wettelijke beperkingen doet.

Een AI Legal double-checker-component hoeft niet noodzakelijkerwijs het volledige scala van alles wat er te weten valt over de wet te dekken. Afhankelijk van de aard van de AI-app met betrekking tot het doel en de acties van de AI in het algemeen, kan de AI Legal-dubbelchecker veel beperkter zijn in termen van de juridische expertise die deze bevat.

Ik heb een nuttig raamwerk geïdentificeerd om te laten zien hoe AI in het juridische domein zich uitstrekt over een reeks autonome capaciteiten, bekend als Levels of Autonomy (LoA). Voor een overzicht zie mijn Forbes column van 21 november 2022, "The No-Nonsense Comprehensive Conpelling Case For Why Lawyers Need To Know About AI And The Law" op de link hier, en voor een gedetailleerde technische weergave zie mijn diepgaande onderzoeksartikel in de MIT Computational Law Journal van 7 december 2021, zie de link hier.

Het raamwerk licht vijf niveaus van AI toe zoals gebruikt bij juridische inspanningen:

  • Niveau 0: geen automatisering voor op AI gebaseerd juridisch werk
  • Niveau 1: Eenvoudige assistentie-automatisering voor op AI gebaseerd juridisch werk
  • Niveau 2: geavanceerde assistentie-automatisering voor op AI gebaseerd juridisch werk
  • Niveau 3: Semi-autonome automatisering voor op AI gebaseerd juridisch werk
  • Niveau 4: Domein autonoom voor op AI gebaseerd juridisch werk
  • Niveau 5: Volledig autonoom voor op AI gebaseerd juridisch werk

Ik zal ze hierin kort beschrijven.

Niveau 0 wordt beschouwd als het niveau zonder automatisering. Juridische redenering en juridische taken worden uitgevoerd via handmatige methoden en vinden voornamelijk plaats via papieren benaderingen.

Niveau 1 bestaat uit eenvoudige assistentie-automatisering voor AI-juridisch redeneren. Voorbeelden van deze categorie zijn het gebruik van alledaagse computergebaseerde tekstverwerking, het gebruik van alledaagse computergebaseerde spreadsheets, toegang tot online juridische documenten die elektronisch worden opgeslagen en opgehaald, enzovoort.

Niveau 2 bestaat uit geavanceerde assistentie-automatisering voor AI-juridisch redeneren. Voorbeelden van deze categorie zijn het gebruik van rudimentaire natuurlijke taalverwerking (NLP) in querystijl, simplistische elementen van machine learning (ML), statistische analysetools voor voorspellingen van rechtszaken, enz.

Niveau 3 bestaat uit semi-autonome automatisering voor AI juridisch redeneren. Voorbeelden van deze categorie zijn het gebruik van geavanceerde Knowledge-Based Systems (KBS) voor juridisch redeneren, het gebruik van Machine Learning en Deep Learning (ML/DL) voor juridisch redeneren, geavanceerde NLP, enzovoort.

Niveau 4 bestaat uit domeinautonome computergebaseerde systemen voor AI-juridisch redeneren. Dit niveau hergebruikt de conceptuele notie van Operational Design Domains (ODD's), zoals gebruikt voor zelfrijdende auto's, maar zoals toegepast op het juridische domein. Juridische domeinen kunnen worden ingedeeld naar functionele gebieden, zoals familierecht, vastgoedrecht, faillissementsrecht, milieurecht, belastingrecht, enz.

Niveau 5 bestaat uit volledig autonome computergebaseerde systemen voor AI-juridisch redeneren. In zekere zin is niveau 5 de superset van niveau 4 in termen van alle mogelijke juridische domeinen. Houd er rekening mee dat dit nogal een grote opdracht is.

Je kunt je deze niveaus van autonomie voorstellen op een lijn met de verwante gebruiken bij het bespreken van zelfrijdende auto's en autonome voertuigen (ook gebaseerd op de officiële SAE-standaard, zie mijn berichtgeving op de link hier). We hebben nog geen SAE Level 5 zelfrijdende auto's. We naderen SAE Level 4 zelfrijdende auto's. De meeste conventionele auto's bevinden zich op SAE-niveau 2, terwijl sommige van de nieuwere auto's SAE-niveau 3 binnendringen.

Op juridisch gebied hebben we nog geen Level 5 AILR. We raken aan een deel van niveau 4, hoewel in extreem smalle ODD's. Niveau 3 begint het daglicht te zien, terwijl de steunpilaar van AILR vandaag voornamelijk op niveau 2 ligt.

Een recent onderzoeksartikel over AI zoals toegepast op de wet heeft een typering geponeerd die bekend staat als Wet informeert Code. De onderzoeker stelt hierover: “Een van de primaire doelen van de Wet informeert Code agenda is om AI te leren de geest van de wet te volgen” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology en intellectueel eigendom, deel 20, binnenkort beschikbaar). Er zijn enkele essentiële overwegingen die de Wet informeert Code mantra komt naar voren en ik zal je door een aantal van die hoeksteenvoorschriften leiden.

Voordat ik op het onderwerp inga, wil ik eerst een essentiële basis leggen over AI en in het bijzonder AI-ethiek en AI-wetgeving, om ervoor te zorgen dat de discussie contextueel zinvol is.

Het toenemende bewustzijn van ethische AI ​​en ook AI-wetgeving

Het recente tijdperk van AI werd aanvankelijk gezien als AI voorgoed, wat betekent dat we AI kunnen gebruiken voor de verbetering van de mensheid. Op de hielen van AI voorgoed kwam het besef dat we ook ondergedompeld zijn in AI voor slecht. Dit omvat AI die is bedacht of zelf is veranderd om discriminerend te zijn en die computationele keuzes maakt die onnodige vooroordelen veroorzaken. Soms is de AI op die manier gebouwd, terwijl hij in andere gevallen in dat ongewenste gebied terechtkomt.

Ik wil er ruimschoots zeker van zijn dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild zouden speculeren over bewuste AI, zou deze discussie een radicaal andere richting kunnen uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens. Sterker nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Ik zou sterk willen voorstellen dat we de zaken nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Wees heel voorzichtig met het antropomorfiseren van de hedendaagse AI.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonafstemmingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit alles heeft met name belangrijke implicaties voor AI-ethiek en biedt een handig venster op de geleerde lessen (zelfs voordat alle lessen zijn getrokken) als het gaat om het proberen om AI wetgeving te maken.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen vooraf dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die verschillende landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI Ethics-begrippen. Zoals eerder hierin is benadrukt, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Ik heb onlangs ook gekeken naar de AI Bill van rechten wat de officiële titel is van het officiële document van de Amerikaanse regering getiteld "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People", dat het resultaat was van een jarenlange inspanning van het Office of Science and Technology Policy (OSTP ). De OSTP is een federale entiteit die dient om de Amerikaanse president en het US Executive Office te adviseren over verschillende technologische, wetenschappelijke en technische aspecten van nationaal belang. In die zin kun je zeggen dat deze AI Bill of Rights een document is dat is goedgekeurd door en onderschreven door het bestaande Amerikaanse Witte Huis.

In de AI Bill of Rights zijn er vijf keystone-categorieën:

  • Veilige en effectieve systemen
  • Algoritmische discriminatiebescherming
  • Data Privacy
  • Opmerking en uitleg
  • Menselijke alternatieven, overweging en terugval

Ik heb die voorschriften zorgvuldig doorgenomen, zie je? de link hier.

Nu ik een nuttige basis heb gelegd voor deze gerelateerde onderwerpen over AI-ethiek en AI-wetgeving, zijn we klaar om in te gaan op het bedwelmende onderwerp van AI-juridische dubbelcheckers en het rijk van Wet informeert Code.

AI Juridische dubbelcheckers ingebed in AI voor afstemming op menselijke waarden

verwijs ik soms naar AI juridische dubbelcheckers via een acroniem van AI-LDC. Dit is een beetje visueel schokkend voor degenen die niet bekend zijn met het acroniem. Als zodanig zal ik dit specifieke acroniem niet gebruiken in deze discussie, maar ik wil het u wel even melden.

Laten we, om enkele van de complexiteiten van AI Legal dubbelcheckers uit te pakken, deze belangrijke punten behandelen:

  • Gebruik van AI Juridische dubbelcheckers als een AI-mechanisme voor afstemming van menselijke waarden
  • Uitgebreidere AI vereist dienovereenkomstig robuustere AI Legal-dubbelcheckers
  • AI Juridische dubbelcheckers voeren de wet uit en maken met name geen wet (vermoedelijk)
  • Delicaat evenwicht tussen AI Juridische belichaming van de wet als regels versus normen
  • Bewijs van de pudding vereisen als het gaat om AI die zich aan de wet houdt

Vanwege ruimtegebrek zal ik die vijf punten voorlopig alleen behandelen, hoewel u alstublieft op uw hoede bent voor verdere berichtgeving in mijn column met aanvullende en even opmerkelijke overwegingen over deze snel evoluerende en vooruitstrevende zaken.

Doe nu uw veiligheidsgordel om en bereid u voor op een verkwikkende reis.

  • Gebruik van AI Juridische dubbelcheckers als een AI-mechanisme voor afstemming van menselijke waarden

Er zijn talloze manieren om te proberen een harmonieuze afstemming te bereiken tussen AI en menselijke waarden.

Zoals eerder vermeld, kunnen we AI-ethische voorschriften produceren en uitvaardigen en proberen we AI-ontwikkelaars en degenen die AI in de praktijk brengen en gebruiken, ertoe te brengen zich aan die hoekstenen te houden. Helaas zal dit alleen niet voldoende zijn. Je hebt een aantal bedenkers die de boodschap onvermijdelijk niet zullen begrijpen. Je hebt een aantal bedenkers die zullen pronken met ethische AI ​​en proberen de ietwat losbandige voorgeschreven principes te omzeilen. Enzovoort.

Het gebruik van 'soft law'-benaderingen die AI-ethiek met zich meebrengen, moet bijna onverbiddelijk gepaard gaan met 'hard law'-wegen, zoals het aannemen van wetten en voorschriften die een krachtig signaal zullen afgeven aan iedereen die AI maakt of gebruikt. De lange arm van de wet kan u komen halen als u niet oordeelkundig gebruikmaakt van AI. Het geluid van rinkelende gevangenisdeuren kan scherpe aandacht trekken.

Een groot probleem is echter dat de staldeur de paarden soms al heeft losgelaten. Een AI die wordt ingezet, zal mogelijk allerlei illegale handelingen produceren en zal dit blijven doen totdat hij niet alleen wordt betrapt, maar ook wanneer er eindelijk enige handhaving optreedt om de stroom van onwettige acties te belemmeren. Dat kan allemaal tijd kosten. Ondertussen worden mensen op de een of andere manier benadeeld.

In dit uitstapje komt de AI Legal-dubbelchecker.

Door zich in een AI-app te bevinden, kan de AI Legal-dubbelchecker onmiddellijk detecteren wanneer de AI in strijd lijkt te zijn met de wet. De AI Legal-dubbelchecker kan de AI in zijn sporen stoppen. Of het onderdeel kan mensen waarschuwen voor de waargenomen onwettige activiteiten, en dit tijdig doen, wat toezichthouders zou kunnen aanzetten tot dringende corrigerende maatregelen. Er is ook de weloverwogen geformaliseerde logging die de component zou kunnen creëren, waardoor een tastbare schijn van een auditspoor ontstaat om de nadelige acties van de AI te codificeren.

Er wordt gezegd dat onze wetten een vorm van multi-agent conglomeratie zijn, zodat de wetten onvermijdelijk een mengeling zijn van wat de samenleving heeft geprobeerd te werpen als een evenwicht tussen waarschijnlijk tegenstrijdige opvattingen over correct en ongepast maatschappelijk gedrag. Een AI Legal-dubbelchecker op basis van onze wetten belichaamt daarom die mix.

Dit is namelijk meer dan alleen het programmeren van een lijst met definitieve rechtsregels. Wetten zijn meestal kneedbaarder en streven naar overkoepelende normen, in plaats van de kleinste microscopische regels te specificeren. Complexiteiten zijn er genoeg.

Terugkerend naar het eerder genoemde onderzoeksartikel, hier is hoe deze overwegingen ook kunnen worden bekeken met betrekking tot het streven naar AI-afstemming: “Wet, de toegepaste filosofie van afstemming van meerdere agenten, voldoet op unieke wijze aan deze criteria. Afstemming is een probleem omdat we dat niet kunnen ex ante specificeer regels die goed AI-gedrag volledig en aantoonbaar sturen. Evenzo kunnen partijen bij een wettelijk contract niet elke onvoorziene gebeurtenis van hun relatie voorzien, en wetgevers kunnen niet voorspellen onder welke specifieke omstandigheden hun wetten zullen worden toegepast. Daarom is een groot deel van de wet een constellatie van normen” (ibid).

De wet integreren in een AI Legal dubbelchecker is een stuk uitdagender dan je in eerste instantie zou denken.

Naarmate AI vordert, zullen we dergelijke vooruitgang dienovereenkomstig moeten benutten. Het blijkt dat wat goed is voor de gans, ook goed is voor de gent. Degenen onder ons die vooruitgang boeken op het gebied van AI zoals toegepast op de wet, verleggen de grenzen van AI en smeden ongetwijfeld nieuwe vorderingen die uiteindelijk kunnen bijdragen aan de vooruitgang van AI.

  • Uitgebreidere AI vereist dienovereenkomstig robuustere AI Legal-dubbelcheckers

Een kat-en-muisspel confronteert dit onderwerp.

De kans is groot dat naarmate AI verder gevorderd wordt, elk onderdeel van de AI Legal double-checker het steeds moeilijker zal vinden om ermee om te gaan. Een AI-app die onder de loep wordt genomen, heeft bijvoorbeeld mogelijk nieuw bedachte superstiekem manieren om de illegale acties van de AI te verbergen. Zelfs als de AI geen achterbakse route volgt, zou de algehele complexiteit van de AI alleen al een ontmoedigende hindernis kunnen zijn om te proberen de AI Legal dubbelchecker te laten beoordelen.

Hier is hoe dit bijzonder belangrijk wordt.

Stel dat een AI-ontwikkelaar of een bedrijf dat AI gebruikt, verkondigt dat er een AI Legal-dubbelchecker is die is ingebed in de op AI gebaseerde app. Voila, ze lijken nu hun handen te hebben gewassen van alle verdere zorgen. De AI Legal dubbelchecker zorgt voor alles.

Niet zo.

De AI Legal-dubbelchecker is mogelijk onvoldoende voor de aard van de betrokken AI-app. Er is ook de mogelijkheid dat de AI Legal dubbelchecker verouderd raakt, misschien niet wordt bijgewerkt met de nieuwste wetten met betrekking tot de AI-app. Er zijn tal van redenen te bedenken waarom de loutere aanwezigheid van een AI Legal-dubbelchecker geen wondermiddel zal zijn.

Overweeg deze inzichten uit het eerder geciteerde onderzoek: “Naarmate de state-of-the-art voor AI vordert, kunnen we iteratief hogere eisen stellen aan bewezen juridische kennis. Als een ontwikkelaar beweert dat zijn systeem over geavanceerde capaciteiten voor taken beschikt, moet hij blijk geven van een navenant geavanceerd juridisch begrip en juridisch, redenerend vermogen van de AI, die praktisch geen probleem hebben bij het overwegen van het moeras van wet- en regelgeving in de loop van de tijd, precedent en jurisdictie ” (ibid).

  • AI Juridische dubbelcheckers voeren de wet uit en maken met name geen wet (vermoedelijk)

Ik weet zeker dat sommigen van jullie ontzet zijn over het idee om deze AI Legal dubbelcheckers te hebben.

Een vaak geuite zorg is dat we AI blijkbaar onze wetten voor ons gaan laten bepalen. Goh, zou je kunnen denken, een stukje automatisering zal de mensheid inhalen. Die verdomde ingebedde AI Juridische dubbelcheckers zullen de standaardkoningen van onze wetten worden. Wat ze ook doen, het zal zijn wat de wet lijkt te zijn.

Mensen zullen worden geregeerd door AI.

En deze AI Legal-dubbelcheckers zijn de gladde helling die ons daar brengt.

Een tegenargument is dat dergelijke praat het spul is van complottheorieën. Je postuleert wild en brengt jezelf in een tizzy. De realiteit is dat deze AI Legal-dubbelcheckers geen gevoel hebben, ze zullen de planeet niet overnemen, en hypen over hun existentiële risico is ronduit belachelijk en enorm overdreven.

Al met al, terwijl we kalm en beredeneerd blijven, moeten we ons ervan bewust zijn dat de AI Legal-dubbelcheckers dienen om de wet op gepaste wijze weer te geven en niet opzettelijk en ook niet per ongeluk verder gaan om op de een of andere manier in gebreke te blijven in het gerespecteerde rijk van het maken wet. Afgezien van de sentiment-extrapolaties, kunnen we het er zeker over eens zijn dat er een reële en dringende zorg bestaat dat de AI Legal-dubbelchecker de ware aard van een bepaalde wet verkeerd zou kunnen voorstellen.

Je zou op je beurt kunnen beweren dat die specifieke "verkeerd voorgestelde" wet in wezen opnieuw wordt gemaakt, aangezien deze niet langer op de juiste manier aangeeft wat de eigenlijke wet bedoelde. Ik vertrouw erop dat u eerlijk gezegd kunt zien hoe dit een subtiele maar veelzeggende overweging is. Op elk moment kan de AI Legal-dubbelchecker op virtuele basis nieuwe wetten maken of zullen we zeggen "hallucineren" door simpelweg te kijken naar hoe de AI-component de wet interpreteert zoals oorspronkelijk vermeld of belichaamd in de AI (voor mijn berichtgeving van de zogenaamde AI hallucinaties, Zie de link hier).

Hierop moet streng worden gelet.

Over dit onderwerp biedt het bovengenoemde onderzoek deze parallelle gedachte in termen van proberen te voorkomen dat die heilige grens wordt overschreden: “We streven er niet naar dat AI de legitimiteit heeft om wetten te maken, een juridisch precedent te scheppen of wetten te handhaven. Dit zou in feite onze aanpak ondermijnen (en we zouden veel moeite moeten doen om dat te voorkomen). Het meest ambitieuze doel van Law Informing Code is eerder om de generaliseerbaarheid van bestaande juridische concepten en normen computationeel te coderen en in te bedden in gevalideerde AI-prestaties” (ibid).

  • Delicaat evenwicht tussen AI Juridische belichaming van de wet als regels versus normen

Wetten zijn rommelig.

Voor zowat elke wet in de boeken is er waarschijnlijk een veelheid aan interpretaties over wat de wet in de praktijk bepaalt. In de taal van het AI-veld verwijzen we naar wetten als semantisch dubbelzinnig. Dat maakt het ontwikkelen van AI zoals toegepast op de wet zo'n spannende en tegelijkertijd ook irritante uitdaging. In tegenstelling tot het precieze rekenwerk dat je zou kunnen zien voor bijvoorbeeld financieel georiënteerde AI-toepassingen, houdt de wens om onze wetten in AI te belichamen het omgaan met een tsunami van semantische dubbelzinnigheden in.

In het boek van mijn stichting over de grondbeginselen van AI Legal Reasoning (AILR), bespreek ik hoe eerdere pogingen om wetten louter te codificeren in een reeks begrensde regels ons niet zo ver hebben gebracht als we zouden willen in het juridische domein (zie de link hier). De AILR van vandaag moet een integratie omvatten tussen het gebruik van regels en wat de overkoepelende normen zouden kunnen worden genoemd die de wet vertegenwoordigt.

Deze belangrijke balans kan als volgt worden uitgedrukt: “In de praktijk belanden de meeste wettelijke bepalingen ergens op een spectrum tussen pure regel en pure standaard, en de rechtstheorie kan helpen bij het inschatten van de juiste combinatie van “regel-ness” en “standaard-ness” bij het specificeren van doelstellingen van AI-systemen” (ibid).

  • Bewijs van de pudding vereisen als het gaat om AI die zich aan de wet houdt

Iets willen is iets anders dan iets hebben.

Dat vleugje wijsheid komt naar boven als we zeggen dat hoewel we misschien AI Legal-dubbelcheckers willen hebben, we er zeker van moeten zijn dat ze werken en correct werken. Merk op dat dit een andere moeilijke en slopende hindernis vormt. Ik heb eerder de nieuwste ontwikkelingen en uitdagingen in de verificatie en validatie van AI behandeld, zie de link hier.

Zoals opgemerkt in het onderzoekspaper: “Om de kloof te dichten, moet de implementerende partij, voordat AI-modellen worden ingezet in steeds meer agentische capaciteiten, bijvoorbeeld volledig autonome voertuigen op hoofdwegen, aantonen dat het systeem inzicht heeft in menselijke doelen, beleid en wettelijke normen. Een validatieprocedure zou het 'begrip' van de AI van de 'betekenis' van juridische concepten kunnen illustreren” (ibid).

Conclusie

Ik verzoek u dringend om te overwegen om met mij mee te gaan op deze nobele zoektocht om AI Legal dubbelcheckers te bouwen en te gebruiken. We hebben meer aandacht en middelen nodig voor dit deugdzame streven.

Dit biedt ook een dubbele taak, zoals eerder vermeld, om AI Legal Reasoning (AILR) te bereiken dat kan worden gebruikt voor het helpen van advocaten en mogelijk rechtstreeks door het grote publiek kan worden gebruikt. Sommigen beweren inderdaad heftig dat de enige levensvatbare manier om tot een vollediger gevoel van toegang tot de rechter (A2J) te komen, zal zijn via het maken van AI die legale capaciteiten belichaamt en voor iedereen toegankelijk is.

Een snel laatste punt voor nu.

De discussie tot nu toe heeft benadrukt dat de AI Legal dubbelchecker zou worden ingebed of geïmplanteerd in AI. Dit is inderdaad de primaire focus van degenen die dit opkomende rijk onderzoeken en ondernemen.

Hier is een vraag die de moeite waard is om over na te denken.

Zet je denkpet op.

Waarom maakt u geen gebruik van AI Legal-dubbelcheckers in alle software?

De kern is dat we, in plaats van uitsluitend de AI Legal-dubbelcheckers in AI te gebruiken, misschien ons gezichtspunt moeten verbreden. Alle soorten software kunnen legaal op een dwaalspoor raken. AI heeft weliswaar het leeuwendeel van de aandacht gekregen vanwege de manieren waarop AI gewoonlijk in gebruik wordt genomen, zoals het nemen van hartverscheurende beslissingen die van invloed zijn op mensen in hun dagelijks leven. Je zou echter gemakkelijk kunnen volhouden dat er veel niet-AI-systemen zijn die hetzelfde doen.

In wezen zouden we software niet vrijuit moeten laten gaan om de wet te omzeilen of af te wenden.

Bedenk ook eerder dat ik de twee categorieën van het combineren van AI en de wet noemde. We hebben ons hierin gericht op het gebruik van AI zoals toegepast op de wet. Aan de andere kant van de medaille staat de toepassing van de wet op AI. Stel dat we wetten aannemen die het gebruik van AI Legal-dubbelcheckers vereisen.

Dit kan in eerste instantie beperkt zijn tot AI-systemen, met name die welke als bijzonder risicovol worden beoordeeld. Geleidelijk aan zou dezelfde AI Legal double-checker-vereiste ook kunnen worden uitgebreid naar niet-AI-software. Nogmaals, geen gratis ritten.

Terwijl je over die bovenstaande overweging nadenkt, zal ik de dingen opfleuren als een afsluitende teaser. Als we gaan proberen AI Legal dubbelcheckers te eisen, kunnen we net zo goed hetzelfde doen met AI Ethics dubbelcheckers. Het gebruik van een AI Legal double-checker is slechts de helft van het verhaal, en we mogen ook de zorgen over AI Ethics niet negeren of vergeten.

Ik zal deze vrolijke verhandeling beëindigen met een van mijn favoriete citaten. Volgens de wijze woorden van Earl Warren, de beroemde jurist die opperrechter van de Verenigde Staten was: "In het beschaafde leven drijft de wet in een zee van ethiek."

Het is misschien het beste om die ontluikende en borrelende AI-juridische dubbelcheckers en AI Ethics-dubbelcheckers gretig in te zetten als we ons hoofd boven potentieel dreigende zware zeeën willen houden van zure AI en strenge niet-AI-systemen die onze veiligheid in gevaar brengen .

Ze kunnen het reddingsvest van de mensheid zijn.

Bron: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- en-ai-wet/