De no-nonsense uitgebreide overtuigende reden waarom advocaten moeten weten over AI en de wet

De handschoen was gegooid.

Zie je, ik was de uitgenodigde keynote spreker op een grote juridische industrieconferentie en mijn aangekondigde onderwerp stond vierkant in mijn stuurhut, namelijk kunstmatige intelligentie (AI) en de wet (meestal bedacht als AI en recht).

In plaats van volledig aangekondigd te worden, is de meest geschikte formulering misschien om te zeggen dat het onderwerp door sommigen met een mengeling van opwinding werd begroet en door anderen met regelrechte wenkbrauwen fronsende scepsis. De verzamelde verzameling van enkele honderden advocatenkantoorpartners en -medewerkers mompelde en vroeg subtiel of iets over AI en het recht vooral bij hen bekend moest zijn. AI werd over het algemeen gezien als een pie-in-the-sky-onderwerp. Bovenop die stelling was AI in combinatie met de wet even of zelfs verder in het bereik van wat dagelijks hardwerkende neus-tot-de-grind advocaten lijken te denken.

Ik waagde me vurig in deze enigszins met mijn armen gevouwen laat me zien smeltkroes.

Ik ben blij te kunnen zeggen dat mijn opmerkingen goed waren opgevat en dat de respons vrij positief was, inclusief dat dit de eerste keer was dat velen van hen ooit een no-nonsense overtuigende en uitgebreide case hadden gehoord over waarom advocaten op de hoogte zouden moeten zijn van AI en de wet. De discussie bracht die eersteklas juridisch ingestelde versnellingen op gang en de aanwezigen hadden genoeg om over na te denken.

Laten we eens kijken of hetzelfde kan worden gezegd voor degenen onder u die mogelijk geïnteresseerd zijn of op zijn minst geïntrigeerd zijn door de AI en recht topic.

Daar gaan we.

Ten eerste is een essentieel facet om te weten dat: AI en recht bestaat uit twee met elkaar verweven concepten.

Simpel gezegd, ze zijn:

  • (1) Wet toegepast op AI: De formulering, vaststelling en handhaving van wetten zoals toegepast op de regulering of het bestuur van kunstmatige intelligentie in onze samenleving
  • (2) AI-toegepast op de wet: Kunstmatige-intelligentietechnologie ontwikkeld en toegepast in de wet, waaronder AI-based Legal Reasoning (AILR) doordrenkt met LegalTech hightech-apps om autonoom of semi-autonoom advocatentaken uit te voeren

Ik wil nadrukkelijk duidelijk maken dat dit zowel bonafide als snelgroeiende manieren zijn waarop AI en het recht worden gecombineerd.

Veel advocaten kennen slechts één van beide perspectieven, of vaak geen van beide.

Afhankelijk van uw advocatenvoorkeuren, is het prima om u op een van de twee te concentreren en niet in het bijzonder op de andere. Over het algemeen zullen advocaten die minder geneigd lijken te zijn om interesse te hebben in technologie, de wet zoals toegepast op AI in de gaten houden, waarbij je niet per se de technologie per se in handen hoeft te krijgen. De advocaten die lijken te genieten van de hightech-infusie in het juridische rijk, zijn meer geneigd om aangetrokken te worden tot het rijk van AI zoals toegepast op de wet.

Je bent van harte welkom om beide aspecten te omarmen en dit met opgeheven hoofd te doen.

Overwegingen met betrekking tot de wet zoals toegepast op AI

Ik zal hierin eerst wat vlezig uitpakken over de wet zoals toegepast op AI.

Wanneer u verwijst naar de wet zoals toegepast op AI, moet u onmiddellijk denken aan de opkomende litanie van nieuwe wetten die de komst van AI-systemen proberen te regelen. Wetten schieten als een lopend vuurtje op. Internationale wetten komen naar voren AI en recht, federale wetten ook, staatswetten, en lokale wetten in overvloed, zie mijn doorlopende berichtgeving op: de link hier en de link hier, om er een paar te noemen.

Waarom zijn we er plotseling getuige van dat AI-gerelateerde wetten plotseling in het leven worden geroepen?

Dat is gemakkelijk te beantwoorden.

Slechts een paar jaar geleden werd het nieuwste tijdperk van AI geprezen als zijnde: AI voorgoed. Dit betekende dat AI werd gezien als aangeboden voor het welzijn van de samenleving. Dat duurde niet lang. Mensen begonnen bijvoorbeeld te ontdekken dat op AI gebaseerde gezichtsherkenningstechnologie gemakkelijk valse indicaties kon genereren en op schijnbaar discriminerende manieren zou kunnen presteren (zie mijn bericht op de link hier). Hetzelfde kan gezegd worden voor AI die werd gebruikt voor wervingsdoeleinden. De zorgen begonnen steeds groter te worden.

AI voor slecht was aangekomen (nou ja, het was er altijd al, maar nu was het merkbaar).

Hoe gaan we om met AI voor slecht?

De snelle reactie was om te identificeren: zachte wetten bestaande uit AI Ethische voorschriften.

Deze ethische AI-richtlijnen met betrekking tot het bedenken van AI en het uitvoeren van AI zijn tot op zekere hoogte noodgevallen, terwijl meer moeizame inspanningen zich richten op het vaststellen van harde wetten. Ik wil echter niet de indruk wekken dat AI Ethics en Ethical AI op de een of andere manier niet langer nodig zullen zijn zodra er een overvloed aan on-the-books wetten bestaat. Helemaal niet. We zullen AI-ethiek voortdurend en altijd nodig hebben als een noodzakelijke aanvulling op formele wetten. Alles wat er op dit moment gebeurt met AI Ethics moet intact blijven en de ultieme bindende lijm zijn om AI in de goede richting te houden.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht in mijn column-posts:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier. Ik heb ook diepgaand de verschillende AI-ethiekprincipes en -richtlijnen onderzocht die tal van landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI Ethics-begrippen. Er is een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Onze discussie verschuiven naar de arena van de harde wet, er gebeurt veel.

In de Verenigde Staten, de Wet op algoritmische verantwoording kronkelt centimeter voor centimeter door het Congres, terwijl de EU en haar voorgestelde Wet kunstmatige intelligentie (AIA) gaan vooruit met een schijnbaar scherpere clip. Misschien vindt u het ook interessant dat een zgn AI Bill van rechten werd onlangs onthuld door de bestaande Amerikaanse regering van het Witte Huis, die probeert mensenrechten te definiëren in een tijdperk van AI, zie mijn analyse op de link hier (merk op dat de uitspraak niet-bindend was en kracht van wet ontbeert).

Een alledaagse advocaat kan zijn schouders ophalen en zeggen dat al deze energie die wordt geassocieerd met AI-ethiek en de geleidelijk landende wetten over AI van nutteloos belang zijn. De hele zaak is zeker een beetje vermakelijk, maar het weegt niet noemenswaardig op hun bestaande inspanningen.

Laten we hier eens over nadenken.

Stel dat u een cliënt heeft die een groot bedrijf is en u verleent externe juridische diensten aan de cliënt. Het blijkt dat deze klant verschillende AI-systemen heeft geadopteerd om hun bedrijf effectiever en efficiënter te maken. Goed voor hen, zou je kunnen denken, al kan het jou niets schelen.

Echt waar?

De klant adopteert deze AI-toepassingen en raakt na een tijdje gebruik verwikkeld in rechtszaken door klanten die beweren dat de AI op een discriminerende of onterechte vooringenomen manier heeft gehandeld. Laten we verder gaan en ons voorstellen dat verschillende wetten op lokaal, staats- en federaal niveau die gericht zijn op AI zijn aangenomen. De klant wordt niet alleen geconfronteerd met civiele rechtszaken, maar wordt nu ook opgejaagd voor mogelijke criminele handelingen die zijn gepleegd via AI-adoptie en fielding.

Waar was je toen dit allemaal gebeurde?

Blijkbaar geeft het niets om AI en of AI en de wet in opkomst waren.

Je moet je schamen. Erger nog, u kunt door de klant summier worden weggegooid. Erger nog, u kunt te maken krijgen met claims van juridische wanpraktijken omdat u het bedrijf niet op tijd en scherpzinnig juridisch heeft geadviseerd terwijl het in het AI-moeras sprong.

Je lag te slapen achter het juridische stuur.

Advocaten die verstand hebben van AI wijzen er snel op dat de American Bar Association (ABA) al officieel advies heeft gegeven over het onderwerp AI-gebruik en de rechtspraktijk. Volgens de ABA-resolutie aangenomen in augustus 2019 (ja, je leest het goed, dit gebeurde meer dan 3 jaar geleden), hier is de deal over AI:

  • "VASTGESTELD, dat de American Bar Association er bij rechtbanken en advocaten op aandringt om de opkomende ethische en juridische problemen met betrekking tot het gebruik van kunstmatige intelligentie ("AI") in de rechtspraktijk aan te pakken, waaronder (1) vooringenomenheid, verklaarbaarheid en transparantie van geautomatiseerde beslissingen gemaakt door AI; (2) ethisch en voordelig gebruik van AI; en (3) controles en toezicht op AI en de leveranciers die AI leveren.”

In die zin kan een enigszins overtuigend argument worden aangevoerd dat advocaten de plicht hebben om op de hoogte te zijn van AI en ervoor te zorgen dat zij hun cliënten juridisch hierover adviseren (zie voor mijn gedetailleerde analyse hiervan de link hier).

Als je de bovengenoemde proclamatie aandachtig leest, is het weliswaar slapjes, zodat je op de bewoording kunt vertrouwen dat het je alleen maar "aanspoort" om het AI-probleem aan te pakken, in plaats van je te dwingen dit te doen. Dit kan als een zucht van verlichting komen.

Maar het kan een korte adempauze zijn.

Ten eerste zou kunnen worden gezegd dat u door de ABA bent geïnformeerd over het belang van AI in de wet.

Ten tweede, als u de begeleiding volledig hebt genegeerd, kan dit tegen u worden gebruikt door een slimme advocaat voor wanpraktijken die probeert u te achtervolgen namens uw verzuurde en diepgewortelde cliënt.

Ten derde, hoewel je natuurlijk zou proberen te argumenteren dat het beweerde gebod niet-bindend is in zijn lakse bewoordingen, is de kans groot dat een rechtbank het niet zo ziet, en evenmin zou een jury bijzonder sympathiek staan ​​tegenover je pogingen om er woorden aan vuil te maken. . Ze zouden de geest van de resolutie kunnen interpreteren en die afwegen tegen de precieze bewoordingen van de verklaring.

Draai aan het wiel en kijk hoe het gaat.

Houd er ook rekening mee dat hoewel het scenario betrekking had op uw juridische diensten als externe raadsman, u er rekening mee moet houden dat interne raadslieden zoals de Chief Legal Officer (CLO), General Counsel (GC) of andere bedrijfsjuristen ook onlosmakelijk deel uitmaken van hetzelfde spel. Voor degenen onder u die intern juridisch advies geven, zal AI moedwillig binnen uw bedrijf worden bedacht of toegepast, terugkomen en u achtervolgen. Dat is een gegarandeerd ijzersterk onheilspellend resultaat.

De meest voorkomende reactie op dit beheer van AI-overweging is dat het zeker moet niet op jou van toepassing zijn aangezien je geen legaal werk doet voor technologiebedrijven (laten we aannemen dat dat het geval is). Natuurlijk, als je doordrenkt was van een technologiebedrijf, zou dit allemaal relevant kunnen zijn. Maar u bent juridisch adviseur voor of binnen een niet-technisch bedrijf. Het bedrijf maakt geen AI. Ze zijn niet tech-georiënteerd.

Ga terug en herlees zorgvuldig waaruit het scenario bestond.

Terwijl de aandacht voor AI aanvankelijk ging over hightechbedrijven die: bedachte AI, het grotere plaatje is dat bijna elk bedrijf van elke grootte of vorm stapsgewijs werkt aanneming AI-systemen. Het zijn gebruikers van AI. Hun producten en diensten zijn op hun beurt afhankelijk van AI.

Ik vermoed dat je gaat proberen te beweren dat, aangezien deze bedrijven alleen AI hebben geadopteerd, ze op magische wijze van de haak zijn wanneer de AI misgaat. Het enige dat u hoeft te doen, is iedereen die op de legale deur klopt, vertellen dat ze de straat op moeten lopen naar het bedrijf dat de AI heeft bedacht.

Goed geprobeerd, maar gaat ongetwijfeld niet werken.

De kans is groot dat het bedrijf dat AI gebruikt, verstrikt raakt in juridische verwikkelingen, vooral als het een groot bedrijf is en de maker van AI een klein bedrijf is. Zet je voeten in de schoenen van de advocaat die probeert aan te klagen. Het grote bedrijf heeft het grote geld. Neem het kleine bedrijf en ga achter het grote bedrijf aan. Natuurlijk zal er allerlei gekibbel plaatsvinden over licenties en de rest. Desalniettemin is het grote bedrijf het sappige doelwit, en geen enkele advocaat die zijn zout waard is, zal het opgeven om er achteraan te gaan.

Om dat vuur aan te vullen, is de kans groot dat het grote bedrijf ervoor heeft gekozen om aanpassingen te maken of de AI te laten 'trainen' om gebruik te maken van de gegevens van het grote bedrijf. Oeps, je bent niet langer op een armlengte afstand van het bedrijf dat de AI-maker was. Je bracht de AI binnen en maakte het in wezen je eigen. Weg is de schijnbare bescherming dat je onschuldig was. Uw bedrijf heeft de AI opzettelijk aangepast of aangepast, waarvoor de AI nu een essentieel onderdeel is van uw grote bedrijf.

Leef ermee, bezit het.

Er is meer om je hoofd verder te laten tollen.

De nieuwe wetten die zich opstapelen als vliegtuigen die vastzitten in een vluchtpatroon op een grote luchthaven, zullen allerlei rommelige juridische problemen in zich opnemen. Wetgevers blokkeren deze juridische vertroebelde nachtmerries door de wetgevingspijplijn. Iedereen wil als eerste laten zien dat ze aan het klemmen zijn AI voor slecht. Glorie wacht, samen met het helpen van degenen die worden geschaad door slechte AI.

Er zijn echter problemen bij het maken van worst. De juridische taal is vaak niet goed doordacht. Er zijn mazen in de wet. Verkeerde formuleringen prevaleren. Enz.

U kunt dit zien als een juridisch moeras of een legale jackpot, afhankelijk van aan welke kant van het hek u zich bevindt wanneer u deze wetten probeert te interpreteren. Zie bijvoorbeeld mijn analyse van die vage en verontrustende wet van New York City (NYC) op AI Biases Auditing die naar verwachting in januari van kracht wordt en een gigantisch probleem zal zijn voor duizenden en duizenden bedrijven (groot en klein) in New York Stad, zie je de link hier.

We zien dus een golf van wetten die gericht zijn op AI.

Dat is niet alles. We zullen schijnbaar toegewijde aan AI-wetten hebben, en daarnaast zal AI ook diepgaand of bescheiden worden genoemd in wetten die schijnbaar tangentieel zijn voor AI. Als je denkt dat je je geen zorgen hoeft te maken over AI en recht omdat het een uiterst smalle juridische niche is, zou ik u willen voorstellen dat kortzichtige denken opnieuw te kalibreren.

Een extra wending is dat we nieuwe wetten zullen hebben die een juridische mumbo jumbo over AI bevatten, wat dan vrijwel zeker in strijd zal zijn met bestaande wetten die AI niet noemen. Kortom, u kunt zich misschien helemaal op uw gemak voelen met een bestaande wet, terwijl u deze als uw broekzak kent. Het volgende dat gebeurt, is dat er een obscure nieuwe wet langskomt die AI noemt. Blijkt dat de nieuwe wet kruist met de geliefde niet-AI-wet die je uit je hoofd kent.

Ben je klaar om te strijden tegen de manier waarop de nieuwe wetten waarin AI is opgenomen, op gespannen voet staan ​​met de bestaande wetgeving waarin AI niet wordt genoemd?

Stel je dit scenario voor.

Een van uw favoriete cliënten is jaar na jaar blij met uw juridische dienstverlening. U bent volledig en zonder enige kwalificatie op de hoogte van de wetten die van toepassing zijn op deze klant. Je kunt de wetten opzeggen terwijl je geblinddoekt bent.

Er wordt een nieuwe wet aangenomen die verschillende delen bevat die verband houden met AI. U besteedt geen aandacht aan deze nieuwe wet omdat het thema of de focus van de wet niet direct gerelateerd lijkt te zijn aan de wetten die volgens u relevant zijn voor de cliënt.

Een slimme advocaat die deze nieuwe wet nauwkeurig heeft bestudeerd, realiseert zich dat het AI-element de deur naar uw juridische wereld opent. Plotseling en tot uw schrik en verbazing, slaagt deze andere advocaat erin een cliënt te vinden die denkt dat ze juridisch geschaad zijn door uw cliënt. De doorgang die de punten met elkaar verbindt, is deze nieuwe wet die kan worden uitgerekt tot in uw normaal bezadigde juridische arena.

Je zag het nooit aankomen.

Als je gelooft dat je specialiteit van de wet op de een of andere manier immuun is voor de AI-invasie van juridische ruzies, wees dan voorzichtig met het maken van die onbezonnen en uiteindelijk valse veronderstelling. Noem een ​​juridische specialiteit en ik kan gemakkelijk aangeven hoe AI naar die stad komt. Strafrechtelijke wet? Natuurlijk. Familie wet? Ja. Belastingrecht? Duidelijk. Zeerecht? Ja. De lijst gaat maar door.

Sorry als dat ontmoedigend en een beetje overweldigend lijkt.

Het is ongetwijfeld iets waar maar weinig advocaten van op de hoogte zijn.

Er komt een aardbeving aan, maar weinigen bereiden zich erop voor. Sommigen weten niet dat de aardbeving begint te rommelen. Anderen denken dat het hen niet zal raken. Wanneer de aardbeving toeslaat, alleen dan zal de AI-juridische erkenning enkele bollen oplichten.

Oké, tot nu toe ben ik aan het hameren op de harde wet aspecten. Ik geloof dat de soft law-kant jaloers wordt. Dit is wat ik bedoel.

Stel je dit eens voor. Een klant voor wie u juridische diensten heeft verleend, kiest ervoor om AI Ethics te omarmen. Laten we voorlopig aannemen dat er geen harde wetten zijn die deze Ethische AI-acceptatie afdwingen. De klant wilde "het juiste doen" en ergo besloot om aan de wereld te laten zien dat ze volledig aan boord zijn met AI Ethics.

Dat is leuk.

U weet misschien niet dat ze hebben besloten om AI Ethics in hun bedrijfscultuur op te nemen. Of misschien weet je het wel, maar dacht je dat het niet iets voor jou was. Het is gewoon een soft law-benadering. Wie geeft er om? Jij niet.

Een paar maanden op de snoek en het bedrijf glijdt naar beneden. Ze betoonden alleen lippendienst aan die ethische AI-principes. Het was vooral een publiciteitsstunt. Ondertussen staat de AI die ze in het bedrijf hebben gebracht vol met allerlei ethische AI-schendingen.

Dat is niet goed.

Een slimme advocaat die uw cliënt legaal wil aanpakken, zal waarschijnlijk hun gelukkige sterren bedanken dat de AI Ethics omarming plaatsvond. Als uw klant nog nooit iets over ethische AI ​​heeft gezegd, bestaat er een kans dat ze de gok zouden wagen om niet te weten wat ze niet wisten. In plaats daarvan maakten ze zich druk om kennis over AI Ethics. Tot op zekere hoogte hebben ze zichzelf op een hoger niveau verantwoordelijk gehouden voor wat ze met hun AI deden.

Hebt u dit bij de start onder hun aandacht gebracht en hielp u hen bij het juridisch overwegen van de aard van de AI-ethiek en hoe zij als bedrijf hiervan gebruik zouden gaan maken?

Verdorie, was niet in je baljuwschap.

Ik zou zo door kunnen gaan, maar ik vertrouw erop dat het thema luid en duidelijk overkomt.

Advocatenkantoren die scherp zijn beginnen de voordelen te realiseren die gepaard gaan met het aanbieden van juridische diensten rond AI. Ze beginnen nieuwe praktijken op te zetten binnen hun advocatenkantoor dat AI en recht als specialiteit.

die binnen de AI en recht specialiteit zijn in staat om bestaande en potentiële klanten te adviseren over hun AI-adoptie. Bovendien proberen de AI-gerichte partners en medewerkers samen te werken en te informeren over alle andere juridische lijnen of specialiteiten van het bedrijf, om ervoor te zorgen dat die andere gebieden niet verblind worden door nieuwe AI-wetten, inclusief tangentiële wetten.

Ook bedrijfsjuristen voegen langzaam juridisch talent toe AI en recht (voornamelijk in bedrijven die zich realiseren dat ze overspoeld zijn met AI) of het toewijzen van graag opgeleide advocaten die een handige interne hulpbron worden over het juridische AI-onderwerp. Ze zullen waarschijnlijk nog steeds een externe juridische hulpbron gebruiken voor grootschalige AI-gerelateerde zaken, hoewel ze door in-house talent een vertrouwd intern lid van het juridische team hebben dat kan dienen als de essentiële schakel tussen wat het bedrijf is doen en de waarschijnlijk diepere AI-bedreven juridische capaciteiten van een externe raadsman.

Ik wil niet suggereren dat dit van de ene op de andere dag gebeurt alsof er met een toverstaf is gezwaaid.

Advocatenkantoren zijn beroemd of laten we zeggen berucht omdat ze traag veranderen.

Bovendien, totdat de markt schreeuwt om AI en recht talent, zullen de meeste advocatenkantoren een afwachtende houding aannemen. Als de markt zich aandient, voila, zullen ze waarschijnlijk een hele varkensbenadering volgen en al het nieuwe talent verwerven dat nodig is. Het is de klassieke just-in-time (JIT)-strategie van het in- en uitruilen van juridische diensten.

Kleinere advocatenkantoren of solopraktijken zullen ongetwijfeld in een lastig parket terechtkomen. Enerzijds, als er geld te verdienen valt in de AI en recht domein, lijkt dit machtig aantrekkelijk. Ze kunnen het zich echter niet veroorloven een kans te wagen als de markt niet al voldoende doordringt. Je moet genoeg verdienen om de boel draaiende te houden. Blijf bij de melkkoe van welk bestaand juridisch domein je ook kent, en wees klaar wanneer de markt opengaat voor luidruchtige oproepen tot AI en recht legale diensten.

Het is een soort van Catch-22.

Advocatenkantoren en advocaten gaan geen energie en aandacht besteden aan: AI en recht tenzij hun klanten en de markt uitbarsten met een bedwelmende vraag ernaar. Het punt is dat de meeste klanten zich waarschijnlijk niet realiseren dat ze nodig hebben AI en recht aanverwante juridische diensten. Ze stormen vooruit op de AI-justrein en de AI-trein, volledig onwetend van de wettelijke kuilen en steile kliffen verderop.

Misschien is het de kip-of-het-ei die als eerste aankomt.

Klanten die in allerlei juridische problemen komen en terecht geïrriteerd raken omdat ze geen juridisch advies hebben gekregen over hun AI-gebruik, en vervolgens hun juridische dienstverleners dienovereenkomstig boos aanspreken. Of zullen we slimme advocaten hebben die de komende tsunami's het hoofd bieden en proberen hun klanten te betrekken bij discussies die zeker moeilijk zullen zijn, aangezien veel klanten dove oren zullen hebben voor de juridische waarschuwingsbellen van AI?

Dit brengt een verwant begrip naar voren dat het overwegen waard is.

Houd er rekening mee dat sommige experts onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen verder dat als we deze AI-wetten uitvoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen. Soms wordt deze mening of dit standpunt aangeduid als zijnde bedacht als: AI Exceptionalisme (wat betekent dat we aanzienlijke speelruimte zouden moeten laten om AI juridisch vast te pinnen, omdat AI dergelijke biedt) buitengewoon belangrijke voordelen voor de samenleving).

U zult beslist hetzelfde horen zeggen door veel van uw huidige klanten.

Als je blindelings intense discussies aangaat met je klanten en probeert de juridische gevolgen van hun AI-adoptie uit te leggen, zal dit vaak worden gezien als de juridische kant die opnieuw een rem zet op goede dingen. Yikes, je zult haastig worden verteld, stop alsjeblieft met al die wilde en wijd opengesperde juridische nachtmerriescenario's.

We redden het wel met de AI, ze zullen aandringen. Het gaat onze kosten verlagen, we kunnen ons personeelsbestand verminderen en we kunnen eindelijk opschalen om onze producten en diensten aan steeds meer consumenten of klanten te leveren. Alle anderen doen hetzelfde. Als zij het doen, moeten wij dat ook doen. Als uw woorden van juridische waarschuwing enige steek zouden houden, zouden die concurrenten van ons AI niet adopteren alsof het het beste is sinds gesneden brood.

Er geweest, gedaan dat.

Zorg ervoor dat u uw juridische waarschuwingen op het gebied van AI zo zakelijk mogelijk formuleert. Ik vond het nuttig om te wijzen op veel gepubliceerde AI-mislukkingen die bedrijven al hebben gestraft via verlies van zakelijke reputatie en/of via dure rechtszaken. Ik denk dat je ook het oude refrein zou kunnen proberen dat we allemaal als kinderen hebben geleerd, namelijk, alleen omdat iemand anders gedachteloos van een klif springt, betekent dat dan dat ze dat ook moeten doen?

Je zult de AI-discussie willen kaderen door te benadrukken dat er goede en verkeerde manieren zijn om AI te adopteren. Als je de indruk achterlaat dat je de kibosh op het gebruik van AI in zijn geheel zet, nou, dat wordt een partijverpletterende bewering. Het lijkt erop dat er geen ruimte is voor het gebruik van AI. Dat is niet de boodschap die u met succes zult overbrengen.

De betere benadering is om uit te leggen hoe juridisch een integraal onderdeel moet zijn van de levenscyclus van AI-adoptie. Voor elke fase van AI-ontwikkeling of -aanpassing of -adoptie, zou juridische moeten wegen. Niets van dat late achteraf-dingen waarbij legal helemaal aan het einde wordt gevraagd om een ​​definitieve aftekening te doen. Dat is te laat. Het paard is al zo goed als de stal uit.

De spreekwoordelijke wortel-en-de-stok komt dan voor de geest.

Je zou kunnen zeggen dat de wortel is dat de wet zoals toegepast op AI veel geld gaat opleveren voor advocaten (waardoor veel van die gekoesterde factureerbare uren worden gevraagd), terwijl de stok is dat advocaten die niet opletten, in grote problemen kunnen komen wanneer klanten worden juridisch overweldigd door AI-gerelateerde juridische risico's en aansprakelijkheden (waarschijnlijk leidend tot verlies van reputatiewaarde door advocaten en mogelijk geconfronteerd met wanpraktijken of soortgelijke jurisprudentieproblemen).

Ik zou verstandig nog een wortel aan de stapel willen toevoegen, als dat mag.

Sommige advocaten worden gemotiveerd door de nieuwigheid van onopgeloste juridische uitdagingen.

Dit soort advocaten willen nieuwe juridische terreinen verkennen. Ze willen een stempel drukken op het juridische landschap en niet alleen dezelfde juridische details van de ene juridische locatie naar de andere pushen. Voor hen, hoewel factureerbare uren ongetwijfeld van vitaal belang zijn, willen ze ruimschoots en op een zeer oprechte manier hun zwaarbevochten gekoesterde juridische geest gebruiken om bijzonder vervelende of uitdagende juridische puzzels op te lossen.

Aan die juridische zoekers met veel avontuur, heet ik u van harte welkom op het gebied van recht zoals toegepast op AI.

Dit is de deal.

Ik zal beginnen met een vraag die ervoor kan zorgen dat je een spit-take doet. Bereid je voor.

Wat is de definitie van kunstmatige intelligentie (AI)?

Laat me de vraag enigszins maar belangrijk herformuleren: Wat is de? wettelijk definitie van kunstmatige intelligentie (AI)?

U gaat er vast van uit dat de juridische wereld de specifieke definitie en betekenis al tot in het kleinste detail heeft vastgelegd wanneer u verwijst naar dat ding dat we "AI" noemen (tussen haakjes, sommigen zeggen nu liever Algemene kunstmatige intelligentie (AGI), een poging om het doel van het bereiken van echte AI terug te brengen in plaats van de minder indrukwekkende niet-bewuste AI van vandaag).

Niet zo.

Zoals ik uitgebreid heb behandeld, zijn wettelijke definities van AI echt een dozijn in een dozijn, zie mijn analyse op: de link hier.

Denk er op deze manier over na.

Al die glimmende nieuwe AI-wetten op internationaal, federaal, staats- en lokaal niveau zijn vermoedelijk gericht op AI, en toch blijkt dat er geen volledig overeengekomen, volledig gestandaardiseerde, juridisch volledig gestolde definitie van AI is. In plaats daarvan verzint iedereen vrijwel zijn AI-definities wanneer ze een wet opstellen, of ze lenen de definitie van iemand anders, zelfs als niemand concreet kan zeggen of het de tand des tijds zal doorstaan ​​​​en de ontberingen van gerechtelijke gevechten zal doorstaan.

Denk hier even over na.

Als u ervoor kiest om in een nieuwe wet een AI-definitie te gebruiken die te eng is, is de kans groot dat alle vormen van AI die binnen de reikwijdte hadden moeten vallen, aan de wet kunnen ontsnappen (vooral zoals juridisch betoogd door AI-savvy advocaten die beseffen dat de maas in de wet bestaat). Aan de andere kant, als de AI-definitie te breed is, zou deze in de nieuwe wet een breed scala aan software en systemen kunnen opnemen die vermoedelijk geen echte basis hebben om binnen de reikwijdte van die wet te vallen. Kortom, een deel van de rotzooi van de wet die op AI wordt toegepast, is dat we zullen eindigen met een lappendeken van nieuwe wetten die betrekking hebben op iets dat vaag bekend staat als "AI", maar dat openstaat voor enorm verschillende juridische interpretaties.

Advocaten zullen zich op verschillende manieren in deze houdingen bevinden die verband houden met juridische definities van grillen over AI:

  • Een cliënt verdedigen die beweert dat de wet niet van toepassing is op hun vermeende "AI" die het bedrijf heeft bedacht
  • Een cliënt verdedigen die beweert dat de wet niet van toepassing is op hun vermeende "AI" die het bedrijf gebruikt of heeft aangenomen
  • Een cliënt vertegenwoordigen die beweert dat de wet wel van toepassing is op een bedrijf dat vermeende "AI" van schadelijke aard heeft bedacht
  • Vertegenwoordigen van een klant die beweert dat de wet van toepassing is op een bedrijf dat vermeende "AI" van schadelijke aard heeft gebruikt of gebruikt
  • Overige

Hoe kun je als advocaat iets doen om dit snelgroeiende probleem het hoofd te bieden en proberen de enorm dure en byzantijnse juridische stroomafwaartse strubbelingen te voorkomen die beslist zullen volgen?

Werk samen met wetgevers om de details van de AI-definitie te achterhalen. Misschien wordt u wetgever als dat voor u van belang is. Word een leider in het uitzoeken van AI-wetten die logisch zijn, goed gespecificeerd zijn, vrij van geschillen kunnen zijn (nou ja, zoiets bestaat niet), of op zijn minst de variantie verminderen waarrond geschillen zullen ontstaan, en proberen een juridische maalstroom te voorkomen dat komt zodra al deze nieuwe AI-wetten in de boeken staan ​​en het paard de stal uit is.

Hoe vind je dat een juridisch intrigerende propositie?

Sommigen van jullie zeggen misschien dat de AI-definitieproblemen vanuit jouw perspectief geen bijzonder interessante uitdaging zijn. Wat staat er nog meer op de rol, vraag je je misschien af. Ik heb er een schepel vol van, maar laten we nu nog een voorbeeld nemen.

Twee woorden: rechtspersoonlijkheid.

Kan of moet AI gezalfd worden met een vorm van rechtspersoonlijkheid?

Je moet toegeven dat het een mover and shaker lijkt. Stel dat we allemaal collectief besluiten om AI een schijn van rechtspersoonlijkheid te geven. Denk aan de gevolgen. Sommige landen zijn dat pad al ingeslagen, zoals beweren dat AI intellectuele-eigendomsrechten (IE) kan hebben voor AI-geproduceerde artefacten zoals nieuwe uitvindingen, nieuwe kunst en dergelijke.

Sommigen zeggen dat dit volkomen logisch is, anderen zijn luidruchtig woedend en beweren dat de AI van vandaag helemaal geen jota van rechtspersoonlijkheid waard is.

Het is een enorme controverse.

Tot dusver, in de Verenigde Staten met betrekking tot IP, was de algemene juridische landing dat de IP-wetten bepalen dat de wettelijke eigenaar een mens moet zijn, zie mijn bericht hierover op de link hier. In zekere zin omzeilt dit soort stilletjes de kwestie van AI-rechtspersoon door simpelweg aan te geven dat de enige toepasselijke IP-eigenaar een menselijke juridische status moet hebben.

Enigszins gerelateerd aan de kwestie van de rechtspersoonlijkheid is een nauw verwant onderwerp dat de Verantwoording van AI (soms aangeduid als de Verantwoordelijkheid van AI). Verantwoording of verantwoordelijkheid verwijst naar het proberen een AI wettelijk te binden aan wie of wat verantwoordelijk of aansprakelijk zou moeten zijn wanneer de AI schade veroorzaakt, zie mijn analyse op de link hier.

Het gemakkelijke antwoord lijkt te zijn dat degene die de AI heeft bedacht de schuld krijgt. Een mens schreef de code, dus de mens draagt ​​de verantwoordelijkheid of aansprakelijkheid. Maar stel dat de AI is geschreven om zichzelf aan te passen. Dit kan worden gedaan om duidelijk gunstige redenen. Tegelijkertijd is de beledigende AI afgeweken van zijn oorspronkelijk bedachte mechanisaties. Moeten we de programmeurs nog steeds verantwoordelijk houden?

Duisternis ontstaat.

De programmeurs schreven bijvoorbeeld de AI, en toen veranderde iemand anders die de AI instelde de AI.

Wie heeft nu de verantwoordelijkheid? Meer verwarrend is dat de AI door tientallen menselijke handen is gegaan, samen met tientallen zelfaanpassende windingen, en de resulterende variant van de AI is helemaal niet meer verwant aan de eerdere versies. Krijgt iedereen de schuld? Krijgt niemand de schuld? Kun je zelfs de afstamming van de AI traceren om definitief vast te stellen welke mensen erbij betrokken waren en welke betrokkenheid ze elk hadden?

Hier is een extra kicker, misschien krijgt de AI de schuld.

Als we AI een beetje rechtspersoonlijkheid gaan geven, kunnen we vermoedelijk ook de AI wettelijk aansprakelijk stellen. Maar wat betekent dat? Zal de AI legaal over activa beschikken die door de benadeelde kunnen worden afgepakt voor een passende vergoeding? Kan AI worden opgesloten? Ik heb deze onderwerpen behandeld op de link hier en de link hier, onder veel van mijn geschriften over deze onderwerpen.

Ik hoop dat deze verschillende teasers voldoende zijn om uw juridische eetlust op te wekken.

Waar het op neerkomt, is dat voor degenen onder u die ervan dromen om ooit legaal een stempel te kunnen drukken en op het punt staan ​​om ondergedompeld te worden in opmerkelijke juridische uitdagingen en juridische puzzels, de wet moet worden beschouwd als toegepast op AI.

Tijd om de volgende keer een kijkje te nemen bij de geallieerde broeders, AI zoals toegepast op de wet.

Gezien de opkomst van AI zoals toegepast op de wet

Ik zei aan het begin van deze discussie dat er twee belangrijke manieren zijn om AI en de wet met elkaar te verbinden (AI en recht), die weer bestaan ​​uit:

  • (1) Wet toegepast op AI: De formulering, vaststelling en handhaving van wetten zoals toegepast op de regulering of het bestuur van kunstmatige intelligentie in onze samenleving
  • (2) AI-toegepast op de wet: Kunstmatige-intelligentietechnologie ontwikkeld en toegepast in de wet, waaronder AI-based Legal Reasoning (AILR) doordrenkt met LegalTech hightech-apps om autonoom of semi-autonoom advocatentaken uit te voeren

We hebben nu al een korte rondleiding gemaakt door het eerste item over de wet zoals toegepast op AI.

Wat je ook doet, negeer of laat de andere even cruciale pijler, namelijk het gebruik van AI zoals toegepast op de wet, niet achterwege. Ik verzeker u dat er bij het gebruik van AI evenveel te winnen valt als toegepast op de wet als bij het bespreken van de wet zoals toegepast op AI. Ook, en hoewel ik niet somber wil lijken, zijn er ook stokken die verband houden met AI zoals toegepast op het juridische domein, dus wees daar ook op voorbereid.

AI zoals toegepast op de wet houdt in dat wordt geprobeerd gebruik te maken van de nieuwste en voortdurende ontwikkelingen van AI om te helpen bij het uitvoeren van juridische taken. Het doel is om technologie te leveren die enigszins vergelijkbaar is met die van een menselijke advocaat, zij het voor nu op een nogal beperkte manier.

Over het algemeen is dit een moeilijk probleem.

Een heel moeilijk probleem.

Het blijkt dat het bedenken van AI die plichtsgetrouw juridisch kan redeneren een stuk moeilijker is dan velen denken. Zie je, de wet zit vol met semantische dubbelzinnigheid en tot nu toe zijn alle conventionele programmeringen en structurele gegevensrepresentaties niet in staat geweest om de cognitie volledig te vatten die wordt belichaamd in menselijke juristen tijdens de advocatentaak. Voor enthousiaste computerwetenschappers die op zoek zijn naar een opmerkelijke uitdaging, AI en recht is duidelijk vruchtbare grond. Advocaten die een sprong voorwaarts willen maken in de annalen van de wet, zouden ook graag deel uitmaken van deze inspanningen.

Velen beweren dat dit een probleem van het type moonshot is. Ik ben het ermee eens. Het goede nieuws is dat vergelijkbaar met hoe AI-zelfrijden eerder werd gepresenteerd als een moonshot, en waarvoor grote vooruitgang is geboekt, hetzelfde kan worden gezegd van de doelstellingen van op AI-gebaseerd juridisch redeneren. Met voldoende toegewijde aandacht en middelen is dit moeilijke probleem rekenkundig te overzien en zullen we als het ware op de maan landen.

Je zou in de verleiding kunnen komen om te zeggen dat we AI nooit zullen kunnen laten doen wat advocaten doen. Advocaten kunnen nooit "geautomatiseerd" worden, is een veelgehoord refrein.

Zoals je hierin snel zult zien, heeft het debat de neiging zich te concentreren op een alles-of-niets-truc. De bewering is dat AI ofwel menselijke advocaten en menselijke advocaten volledig vervangt, ofwel niets van dien aard doet en schijnbaar geen toegevoegde waarde heeft.

Een beetje gek.

Elke advocaat die zijn zout waard is, kent dat soort slechte argumenten. Je probeert een stroman op te zetten en hem dan neer te halen. Voila, je wint het argument. Tenzij iemand anders die even bedreven is in argumentatie langskomt en erop wijst dat de stroman een nep-kunstgreep was die werd gebruikt om toe te geven aan een zwak argument.

We kunnen AI op geselecteerde manieren en voor bepaalde juridische taken gebruiken en hoeven ons niet exclusief aan te melden om alle advocatentaken op alle denkbare manieren in één keer uit te kunnen voeren.

Dat gezegd hebbende, zijn er natuurlijk ernstige zorgen over wat de AI aan het doen is en of deze in staat is voldoende te presteren voor de taak die voorhanden is. U weet waarschijnlijk goed dat een aspect van het uitoefenen van de wet in de Verenigde Staten is dat de Ongeoorloofde rechtspraktijk (UPL) is een vrij strikte voorwaarde. Ogenschijnlijk beschermt de UPL degenen die juridisch advies zoeken door ervoor te zorgen dat alleen degenen die de juiste vergunning hebben om als advocaat op te treden, dit zullen doen. Een dreigende vraag is of AI die overgaat in het uitvoeren van juridische taken, UPL schendt, een complex onderwerp dat ik heb behandeld op de link hier.

Ik ben er zeker van dat sommigen van jullie wachten om te horen of we AI hebben bereikt die menselijke advocaten volledig vervangt. Dat is de gebruikelijke kreet die wordt gehoord op conferenties over de juridische industrie. Zijn we er al, de vraag blijft zwaar in de lucht hangen.

Het vervangen van menselijke advocaten is zeker een omstreden hot-knop.

De insider is dat in plaats van zich bezig te houden met de vraag of AI menselijke advocaten gaat "vervangen", het meer realistische scenario op korte termijn is dat AI-gewapende advocaten waarschijnlijk advocaten die ongewapend zijn, zullen "vervangen" door AI.

Tegen het einde van deze discussie zal ik hier meer over zeggen.

Een bijzonder lastig onderwerp op het gebied van AI zoals toegepast op de wet, zijn die verschillende verhalen over ooit Robo-advocaten, Robo-rechters en misschien zelfs Robo-juryleden. Ik ben geen fan van Robo-labeling. Het probleem is dat er zoveel vooropgezette bagage is verbonden aan de Robo-labeling dat je iemand niet in een serieus gesprek kunt betrekken op het moment dat het Robo-begrip in de mix wordt gegooid. Ik zal aarzelend het Robo-trio in deze discussie betrekken en vragen dat je alle gekke of wild vooroordelen die je hebt opzij zet.

Bedankt voor uw genadige bereidheid om opnieuw te kijken naar het onderwerp AI zoals toegepast op de wet.

De eerste en meest essentiële hoeksteen is om je hoofd te wikkelen rond een belangrijk raamwerk waar ik bekend om ben geworden met betrekking tot mijn kijk op AI Legal Reasoning (AILR) in de context van Levels of Autonomy (LoA), zie mijn onderzoekspaper volgens het MIT Computational Law tijdschrift op de link hier.

Ik zal het raamwerk even kort aan u voorstellen.

De essentie is dat de meeste advocaten meteen in de mentale val lijken te lopen dat als AI wordt gebruikt voor juridische redeneringen, de AI er ofwel helemaal niet is, ofwel helemaal niet. Dit is een valse dichotomie. Het is een aanname dat AI aan of uit staat. Blijkbaar heb je AI of je hebt geen AI. Maar zo werken de dingen niet.

Ik zal dezelfde on-of-off leugen vergelijken met de opkomst van zelfrijdende auto's, zodat je duidelijker kunt zien waarom het cruciaal is om rekening te houden met verschillende niveaus van autonomie.

U weet vrijwel zeker dat er tal van inspanningen gaande zijn om op AI gebaseerde zelfrijdende auto's te bedenken, waarbij de AI het rijden doet en er geen menselijke bestuurder aan het stuur nodig is. In verschillende grote steden in de VS worden voortdurend zelfrijdende auto's uitgeprobeerd. In sommige gevallen zit er nog steeds een menselijke bestuurder aan het stuur, die dient als veiligheids- of back-upbestuurder. Ondertussen worden er op beperkte basis zelfrijdende auto's gebruikt zonder enige menselijke back-upbestuurder.

Ik durf te wedden dat je misschien vaag weet dat er verschillende zijn niveaus van AI-zelfrijdende auto's.

Er bestaat een standaard die een schaal van 0 tot 5 heeft vastgesteld, die de Autonomieniveau dat zou kunnen bestaan.

De onderkant van de schaal is een nul (Niveau 0), waarvoor in wezen helemaal geen geautomatiseerd rijden is en het rijden volledig handmatig wordt bediend door een menselijke bestuurder. Aan de andere kant van de schaal is de hoogste score van een 5 (niveau 5). De hoogste score is indicatief voor een volledig door AI aangedreven voertuig zonder menselijke bestuurder en dat kan werken in zowat elke rijomgeving die een menselijke bestuurder aankan.

De meeste mensen denken aan de 0 en de 5, maar houden geen rekening met de belangrijke niveaus tussen de laagste en hoogste scores. De auto's van vandaag worden over het algemeen beschouwd op niveau 2, waarbij ze enige automatisering bieden om te rijden. De menselijke bestuurder wordt echter nog steeds wettelijk beschouwd als de bestuurder van het voertuig. Niveau 3 auto's zijn net in opkomst en bestaan ​​uit een semi-autonoom rijden arrangement. Er wordt nog steeds verwacht dat de menselijke bestuurder klaar staat wanneer dat nodig is, hoewel het grootste deel van het rijden vermoedelijk door de AI kan worden uitgevoerd.

Niveau 4 is voor velen een enigszins verwarrende categorie. Niveau 4 wordt beschouwd als een volledig autonoom rijdende auto, maar kan alleen rijden in bepaalde omstandigheden, het zogenaamde Operational Design Domain (ODD). Ik zou bijvoorbeeld kunnen zeggen dat ik een zelfrijdende AI-auto heb die alleen veilig kan rijden in San Francisco, alleen overdag, en niet als het weer slecht wordt, zoals bij zware regenval. Dat is een bepaalde ODD die reikt of begrenst waar het AI-aandrijfsysteem in staat is om het autonome voertuig goed te besturen.

Nu we de basisprincipes van de niveaus van autonomie hebben behandeld, zijn we klaar om dezelfde benadering te volgen en te zien hoe dit ook van toepassing is op juridisch redeneren.

Hier zijn mijn vermelde niveaus van autonomie voor op AI gebaseerde juridische redenering:

  • Niveau 0: Geen automatisering voor AI Juridisch redeneren
  • Niveau 1: Eenvoudige assistentie-automatisering voor AI Juridisch redeneren
  • Niveau 2: Geavanceerde assistentie-automatisering voor AI Juridisch redeneren
  • Niveau 3: Semi-autonome automatisering voor AI Juridisch redeneren
  • Niveau 4: Domeinautonoom voor AI Juridisch redeneren
  • Niveau 5: Volledig autonoom voor AI Juridisch redeneren

Niveau 0 wordt beschouwd als het niveau zonder automatisering. Juridische redenering en juridische taken worden uitgevoerd via handmatige methoden en vinden voornamelijk plaats via papieren benaderingen.

Niveau 1 bestaat uit eenvoudige assistentie-automatisering voor AI-juridisch redeneren. Voorbeelden van deze categorie zijn het gebruik van alledaagse computergebaseerde tekstverwerking, het gebruik van alledaagse computergebaseerde spreadsheets, toegang tot online juridische documenten die elektronisch worden opgeslagen en opgehaald, enzovoort.

Niveau 2 bestaat uit geavanceerde assistentie-automatisering voor AI-juridisch redeneren. Voorbeelden van deze categorie zijn het gebruik van rudimentaire natuurlijke taalverwerking (NLP) in querystijl, simplistische elementen van machine learning (ML), statistische analysetools voor voorspellingen van rechtszaken, enz.

Niveau 3 bestaat uit semi-autonome automatisering voor AI juridisch redeneren. Voorbeelden van deze categorie zijn het gebruik van geavanceerde Knowledge-Based Systems (KBS) voor juridisch redeneren, het gebruik van Machine Learning en Deep Learning (ML/DL) voor juridisch redeneren, geavanceerde NLP, enzovoort.

Niveau 4 bestaat uit domeinautonome computergebaseerde systemen voor AI-juridisch redeneren. Dit niveau hergebruikt de conceptuele notie van Operational Design Domains (ODD's), zoals gebruikt voor zelfrijdende auto's, maar zoals toegepast op het juridische domein. Juridische domeinen kunnen worden ingedeeld naar functionele gebieden, zoals familierecht, vastgoedrecht, faillissementsrecht, milieurecht, belastingrecht, enz.

Niveau 5 bestaat uit volledig autonome computergebaseerde systemen voor AI-juridisch redeneren. In zekere zin is niveau 5 de superset van niveau 4 in termen van alle mogelijke juridische domeinen. Houd er rekening mee dat dit nogal een grote opdracht is.

Neem even de tijd om na te denken over deze niveaus van autonomie in de context van uw juridische dienstverlening en juridische activiteiten.

De meeste advocatenpraktijken gebruiken tegenwoordig een of andere vorm van computergebaseerde pakketten om te helpen bij het doen van hun juridische werk. De populaire naam voor deze toepassingen is dat ze worden beschouwd in de rubriek van: Juridische Tech (je weet misschien dat er MedTech is voor medische technologie, FinTech voor financiële technologie, EdTech voor educatieve technologie, enz.).

Ik krijg bijna dagelijks de vraag of LegalTech AI wel of niet bevat.

Mijn antwoord is dat dit niet een aan-of-uit ding is. U moet rekening houden met de niveaus van autonomie.

Sommige LegalTech-pakketten hebben AI-mogelijkheden aan hun pakket toegevoegd (of, in sommige gevallen, om te beginnen AI in de kern gebruikt), in verschillende mate. Je moet goed onderzoeken wat AI is toegevoegd en wat het bereikt. Wees voorzichtig met de vaak gebruikte brutale en ongefundeerde beweringen over AI.

Een van de meest populaire arena's is het gebruik van AI voor het afhandelen van juridische contracten. Mogelijk krijgt u een Contract Life Cycle Management (CLM) -pakket om uw juridische contracten te volgen en te laten verlopen tijdens het juridische beoordelingsproces. Het toevoegen van AI kan handig zijn als de AI bijvoorbeeld mogelijke juridische tekortkomingen of gissingen in conceptcontracten kan identificeren, of misschien voorgestelde juridische taal kan samenvoegen voor een bepaald contract dat wordt opgesteld.

Een andere focus van AI komt naar voren bij het doen van eDiscovery. U kunt tijdens het ontdekkingsproces worden geconfronteerd met een enorm corpus aan elektronische documenten. Verschillende soorten AI kunnen mogelijk worden gebruikt om het corpus te doorzoeken en relevante items te identificeren. Bovendien kan de AI de waarde van het gevonden materiaal voor de zaak in kwestie samenvatten of op andere manieren analyseren.

En ga zo maar door.

Als de AI slechts minimaal enige inhoudelijke juridische redenering of juridische verwerking uitvoert, zou je dat classificeren als AI die op mijn schaal op niveau 2 wordt gebruikt. Wanneer AI robuuster is ontworpen, zou LegalTech AI op niveau 3 kunnen gebruiken. 4 bestaat tegenwoordig alleen in vrij smalle ODD's. Niveau 5 is ambitieus en we zullen moeten blijven slijpen om te zien of we het kunnen bereiken (net zoals dezelfde open vraag bestaat op het gebied van zelfrijdende auto's met AI).

Dus ja, we hebben tegenwoordig AI die wordt gebruikt in LegalTech en de AI varieert aanzienlijk in termen van wat het doet en wat het niet kan doen.

Ondertussen zijn er grote inspanningen gaande om de grenzen van AI te verleggen en dit te koppelen aan het uitvoeren van juridische taken en het uitvoeren van verschillende reeksen en diepten van juridische redeneringen. In mijn onderzoekslab (zie de link hier), gebruiken we de komst van Large Language Models (LLM's) en passen we deze nieuwste nieuwe technologie toe op de wet, samen met het samenbrengen van een diverse reeks AI-technieken en -technologieën om te proberen synergetisch en holistisch het voortdurende raadsel te ontrafelen van hoe te bereiken verhoogde niveaus van autonomie bij het doen van op AI gebaseerde juridische redeneringen.

Terugkerend naar de naam Robo-advocaat (ik wil het niet, maar ik voel dat ik dit voor de volledigheid moet doen), hier is een kwestie van overweging:

  • Wat houdt een “Robo-advocaat” in qua omvang en bekwaamheid?

Het gebruikelijke antwoord is dat een Robo-advocaat een op AI gebaseerd juridisch redeneersysteem is dat alles kan wat een menselijke advocaat kan. Punt, punt. Als dat het geval is, zouden we dan schijnbaar zeggen dat een Robo-advocaat een niveau 5 op de autonomieschaal zou moeten hebben. Dit is natuurlijk enigszins argumentatief, omdat je je kunt afvragen of er een gekozen is menselijk advocaat kan echt volledig opereren op alle rechtsgebieden, wat niet bijzonder realistisch is. De meeste advocaten bevinden zich doorgaans in een bepaald juridisch domein of specialisme, vergelijkbaar met de ODD's van niveau 4.

Laten we eens kijken naar de Robo-advocaat in een niveau 4-context.

Stel dat we een AI-systeem bedenken dat 'juridisch kan redeneren' voor het juridisch bestrijden van parkeerboetes. De AI kan een vergelijkbare juridische functie vervullen als een advocaat die is ingehuurd om het juridische gekibbel over een conventionele parkeerkaart te voeren.

Is deze parkeerkaart advocaat-achtige AI een Robo-advocaat of niet?

In zekere zin wel, omdat het een advocatentaak op zich neemt, zij het binnen een zeer beperkt domein of subdomein van de wet. Aan de andere kant, als je dit vergelijkt met een volledige Level 5 autonome AI-gebaseerde advocatencapaciteit (die we nog niet hebben), zou je waarschijnlijk heftig zeggen dat dit geen Robo-advocaat is.

Zie je waarom ik de naam Robo-advocaat niet leuk vind?

Het is dubbelzinnig. Het draagt ​​bagage. Het impliceert dingen die niet noodzakelijkerwijs gearticuleerd zijn. De slogan is gewoon verschrikkelijk en het zou beter zijn om ervan af te zien. Helaas is de zin pakkend en aantrekkelijk. Het is plakkerig en zal niet snel verdwijnen. Helaas zijn er advertenties van sommige LegalTech-leveranciers die proberen de Robo-advocaat-tag te misbruiken, en als zodanig lijkt het twijfelachtig dat de naamgeving binnenkort zal verlopen of worden verwijderd.

Schakelen, we zouden de wortels en de stokken moeten onderzoeken die verband houden met AI zoals toegepast op de wet.

Als een advocatenpraktijk een op AI gebaseerd LegalTech-pakket adopteert dat dankzij de AI de productiviteit van menselijke advocaten drastisch kan verhogen, lijkt dit een goede zaak. Advocatenkantoren juichen over het algemeen een verhoging van de productiviteit van hun menselijke arbeid toe.

Een tegenargument is dat productiviteitsverbeteraars in factureerbare uren zullen snijden. Uw advocaat die bijvoorbeeld 20 uur nodig had om een ​​bepaalde juridische taak uit te voeren, kan dit nu in 15 uur doen. Au! Dat betekent dat je net 5 uur factureerbare tijd hebt opgegeven. Dat is natuurlijk een beperkte kijk op de situatie en gaat voorbij aan het zakelijke inzicht dat ten grondslag ligt aan het zoeken naar productiviteitsverhogers.

U kunt die 'bespaarde' uren bijvoorbeeld gebruiken door de advocaat te gebruiken om nieuwe klanten te werven of door ander bestaand klantwerk eerder gedaan te krijgen (waarschijnlijk de tevredenheid met die klanten verhogen). Er is ook de concurrentiehoek om te overwegen. Als uw advocatenkantoor minder productief is, is de kans groot dat bedrijven die juridische diensten zoeken hier lucht van krijgen. Moeten ze het advocatenkantoor kiezen dat bekend staat als zeer efficiënt of juist het minder?

Je moet ook verder gaan dan productiviteit en kijken naar andere belangrijke statistieken, zoals de kwaliteit van het juridisch advies.

Als een op AI gebaseerd juridisch redeneerelement juridische opties aanwakkerde of juridische argumentatie aanwakkerde, zou de menselijke advocaat die een dergelijke AI gebruikt, heel goed juridische oplossingen van hogere kwaliteit kunnen identificeren. In zekere zin zou dit hetzelfde zijn als het hebben van een senior partner die als mentor optreedt. Partners en medewerkers kunnen de AI gebruiken, op elk moment van de dag of nacht, vanaf elke locatie, wat hen ertoe aanzet om bewuster na te denken over een vollediger scala aan juridische wegen die moeten worden gevolgd.

Dat zijn enkele van de wortelen.

De sticks kant is misschien duidelijk.

Een provocerend argument is dat advocaten die dergelijke AI niet gebruiken, hun plicht jegens hun cliënten zullen toe-eigenen. Als advocaten zetten zij niet de best mogelijke middelen in om hun cliënten te adviseren. Ze ondermijnen hun beëdigde verplichting als juridisch dienstverlener.

Je hebt waarschijnlijk ook de opkomst gezien van zogenaamde sandboxes op juridisch gebied. Sommigen geloven dat dit het cruciale middel kan zijn om AI in het juridische spel te krijgen. Het argument is dat als conventionele advocatenkantoren niet bereidwilliger in de richting van AI gaan, er misschien een alternatieve weg nodig is.

Er wordt gesuggereerd dat advocaten die geen AI gebruiken, schijnbaar in het nadeel zullen zijn in vergelijking met degenen die dat wel doen. Dit baart vooral enkele juridische brancheverenigingen zorgen. De zorg is dat kleine advocatenkantoren of solo-advocaten zich geen AI-tools voor juridische redenering kunnen veroorloven. Ze zullen verder worden overschaduwd door Big Law, die het deeg heeft om dergelijke investeringen te doen.

Een tegenargument is dat als de kosten van de AI-tools voor juridische redenering laag genoeg zijn, dit kleine advocatenkantoren en solo-advocaten concurrerender zou kunnen maken met Big Law. Klanten die anders van mening waren dat het kleine advocatenkantoor of solo niet over voldoende juridische middelen zou beschikken, zouden misschien anders kunnen worden overgehaald via AI-vergroting.

Een van de grootste onthullingen betreft de veronderstelling dat als AI-rechtspraak van autonome aard algemeen beschikbaar zou worden gemaakt en tegen een betaalbare prijs, dit mogelijk het overweldigende probleem van A2J (toegang tot de rechter) zou helpen. Enorme tientallen mensen hebben geen gemakkelijke toegang tot advocaten en advocaten. Ze weten niet hoe ze moeten omgaan met het juridische ecosysteem. Stel je voor wat een 24×7 AI-gebaseerd juridisch redeneersysteem zou kunnen doen om de wet te democratiseren en de perceptie van de rechtsstaat te verbeteren.

Die laatste paar punten raken aan enkele van de spannende juridische puzzels of juridische uitdagingen die wachten op degenen die ervoor zouden kunnen kiezen om deel te nemen aan de komst van AI zoals toegepast op de wet.

Nog enkele teasers zijn dat we AI kunnen gebruiken om te helpen bij het voorbereiden of opstellen van wetten. Hier is het idee. Vaak is een wet slecht opgesteld. De tekortkomingen van de juridische taal veroorzaken verwarring over de wet. Dit ondermijnt de rechtsstaat. AI wordt gebruikt om voorgestelde wetten te analyseren en te achterhalen waar er hiaten en problemen zijn die anders misschien niet zo duidelijk zouden zijn geweest. Naast het opsporen van deze zorgen (soms aangeduid als legale geuren), kan de AI een herformulering voorstellen om dubbelzinnigheid te verminderen.

Een andere mind-bender beroept zich op de stelling dat: wet is code.

Met andere woorden, als je naar de meeste wetten kijkt, hebben ze een enigszins bekende gelijkenis met computercodering. Er worden inspanningen geleverd om wetten automatisch te vertalen in pure programmeercode of het equivalent daarvan. Dit kan op zijn beurt computationele en wiskundig georiënteerde bewijzen mogelijk maken die verband houden met onze wetten.

Je kunt ook noedels maken op het idee van code als wet.

Als een wet gebaseerd zal zijn op een of ander computeralgoritme, zou je kunnen suggereren dat de programmeercode op zich de wet vertegenwoordigt. De code is de wet. Stel je voor dat je naar de rechtbank gaat om ruzie te maken over een stukje programmeercode dat wettelijk wordt beschouwd als de letterlijke aanduiding van de wet.

Denk na over deze verleidelijke vragen:

  • Met welke middelen kunnen we AI het beste ontwerpen die juridische redeneringen vollediger omvat?
  • Welk type online interactie tussen menselijke advocaten en AI juridische redeneersystemen zal het meest bevorderlijk zijn voor het gebruik?
  • AI juridisch redeneren vereist XAI (verklaarbare AI), maar hoe kunnen Machine Learning en Deep Learning passende verklaarbaarheid bieden?
  • Hoe kunnen we AI juridisch redeneren beschikbaar maken voor mensen zonder voldoende A2J?
  • Kunnen we het UPL-probleem achterhalen als het gaat om op AI gebaseerde juridische redenering?
  • Zullen onze rechtbanken ook AI toepassen en zo ja, hoe zal dit de rechterlijke uitspraak over de hele linie beïnvloeden?
  • En zo voort

Sommige advocaten beschouwen zichzelf als ondernemers in hart en nieren.

Er zijn veel startups in de LegalTech-ruimte, en daarvan zijn er veel die AI proberen uit te vinden of dienovereenkomstig toe te passen op juridische taken. Je hebt misschien de recente oogst van vacatures gezien waar om wordt gevraagd: Ingenieurs juridische kennis of gewoon vermeld als Juridische Ingenieurs.

Sommige advocaten zijn techneuten die in deze ruimte komen.

Sommige advocaten zijn geen techneuten die de AI betreden zoals toegepast op de wet arena, waarvoor ze juridische domeinexpertise leveren om te helpen bij het ontwikkelen van AI juridische redeneersystemen. Ik noem dit omdat de veronderstelling van veel advocaten en rechtenstudenten is dat ze een techneut moeten zijn om dit rijk te betreden. Dat is niet per se een vereiste. De bereidheid om de wet te onderzoeken op manieren die je tot nu toe niet had onderzocht en gedaan, terwijl je standvastig en samenwerkt met techneuten, is het recente stijgende pad.

Conclusie

Je bent helemaal tot het einde van deze verhandeling gekomen.

Goed voor je.

Ik hoop oprecht dat u deze discussie informatief, misschien zelfs bescheiden inspirerend zult hebben gevonden.

Waarom haasten advocaten zich niet naar? AI en recht?

Er zijn er maar weinig die weten wat je nu weet.

Het grootste deel van de advocaten heeft geen of weinig ideeën over wat? AI en recht bestaat uit. Het is een onderwerp dat zelden wordt behandeld op rechtsscholen, hoewel ik heb voorspeld dat zodra de... AI en recht tsunami-hits, we zullen waarschijnlijk een grote verandering zien in dat besef van waar AI en recht moet worden afgedekt.

Ik zei al eerder dat er een kip of een ei over is AI en recht. Klanten weten dat nog niet AI en recht wordt een belangrijke juridische kwestie. Advocatenkantoren hebben de neiging om te wachten tot klanten om juridische diensten beginnen te schreeuwen. Op dit moment zien alleen enkele advocatenkantoren de letters aan de muur. Evenzo zien slechts enkele klanten het schrift op de muur. Weinigen zijn zich over het algemeen bewust van de aardbeving, terwijl nog minder zich voorbereiden op de aardbeving.

Disruptie komt eraan.

Ik realiseer me dat het woord 'disruptie' tegenwoordig nogal wat wordt gebruikt. Ondanks dat overmatig gebruik, denk ik dat het juridische veld aan de vooravond staat van een verstoring in verband met AI. Het zal niet over één nacht ijs gaan. Je wordt op een ochtend niet wakker en 's nachts heeft er op onverklaarbare wijze een radicale transformatie plaatsgevonden. Ik zou zeggen dat het een gestage mars wordt. Eén voet tegelijk, één stap tegelijk.

Een reis van vele kilometers begint met een enkele stap.

Volgens de beroemde opmerking van William Randolph Hearst: "Je moet je gedachten bij het doel houden, niet bij het obstakel."

Bron: https://www.forbes.com/sites/lanceeliot/2022/10/21/the-no-nonsense-comprehensive-compelling-case-for-why-lawyers-need-to-know-about-ai- en-de-wet/