AI-ethiek piekert over de verdiensten van het wettelijk verplicht stellen van verzoeningsfondsen om ervoor te zorgen dat KI verantwoordelijk wordt gehouden voor slecht handelen

Wie heeft de schuld?

Dat lijkt misschien een eenvoudige vraag, maar in het geval van het beroemde komediestuk van het legendarische duo Abbott en Costello over een honkbalteam, kan de 'wie' verwarrend zijn. Je bent misschien vaag bekend met de Wie is er eerst komische routine waarvan ze een van de meest duurzame sketches aller tijden hebben gemaakt (spoiler alert voor degenen onder jullie die het nog niet hebben gehoord).

Abbott vertelt Costello dat Wie eerst staat, wat tweede is en ik weet het niet op de derde plaats staat. De slimme truc is dat de eerste honkman Who heet, de tweede kelder Wat heet en de derde honkman I Don't Know. Natuurlijk hebben die uitdrukkingen ook hun conventionele betekenis en dus kan het volkomen verwarrend zijn om te proberen te interpreteren wat Abbott zegt. Inderdaad, Costello stelt de ogenschijnlijk onschuldige vraag wie als eerste aan de beurt is, waarop het antwoord een stellig ja is. Maar dit is niet logisch voor Costello, omdat hij een naam verwachtte en in plaats daarvan een verbijsterend ja als antwoord kreeg.

Een versnelling hoger, als het gaat om de komst van kunstmatige intelligentie (AI), een van de meest irritante vragen die steeds worden gesteld, is wie of misschien wat er verantwoordelijk wordt gehouden als AI op een dwaalspoor raakt.

Ik heb eerder de strafrechtelijke aansprakelijkheid besproken voor wanneer AI leidt tot of criminele acties onderneemt, zie mijn bericht op: de link hier. Er is ook de kwestie van burgerlijke aansprakelijkheid, zoals wie of wat je zou kunnen aanklagen als AI je verkeerd heeft gedaan, en dat is het onderwerp dat ik hierin zal bespreken. Dit alles heeft belangrijke overwegingen op het gebied van AI-ethiek. Voor mijn voortdurende en uitgebreide verslaggeving over AI-ethiek en ethische AI, zie: de link hier en de link hier, om er een paar te noemen.

De voorschriften van AI Ethics zorgen ervoor dat we waakzaam blijven. AI-technologen kunnen soms in beslag worden genomen door technologie, met name de optimalisatie van hightech. Ze houden niet per se rekening met de grotere maatschappelijke gevolgen. Het hebben van een AI-ethiek-mindset en dit integraal doen voor de ontwikkeling en fielding van AI is van vitaal belang voor het produceren van geschikte AI, inclusief (misschien verrassend of ironisch genoeg) de beoordeling van hoe AI-ethiek door bedrijven wordt overgenomen.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen zelfs van tevoren dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

Er is een verhit debat gaande over de vraag of bestaande wetten in staat zijn om de opkomst van AI-systemen in de samenleving adequaat aan te pakken. Wettelijke aansprakelijkheid vereist doorgaans dat u de staart op de ezel kunt spelden over wie verantwoordelijk is voor schadelijk gedrag. In het geval van AI kan er een nogal onduidelijk pad zijn dat een bepaalde persoon of personen verbindt met de AI die een schadelijke actie heeft uitgevoerd. De AI is mogelijk grotendeels onvindbaar voor de bron of uitvinder die de AI heeft samengesteld.

Een andere overweging is dat zelfs als de wortels van de AI tot iemand te herleiden zijn, de vraag is of de persoon of personen de nadelige uitkomst die de AI uiteindelijk heeft opgeleverd, redelijkerwijs niet hebben kunnen voorzien. De crux van voorzienbaarheid is een gewoonlijk opvallende factor bij de beoordeling van wettelijke aansprakelijkheid.

Je zou in de verleiding kunnen komen om te denken dat je gewoon achter de AI zelf aan kunt gaan en de AI kunt noemen als de juridische partij die verantwoordelijk of verantwoordelijk is voor de schade die naar verluidt is opgelopen. Over het algemeen is de heersende juridische opvatting dat AI nog niet het niveau van rechtspersoonlijkheid heeft bereikt. Je kunt dus strikt genomen niet proberen de AI te laten betalen en moet mensen vinden die als het ware achter de schermen aan het werk waren (voor mijn analyse van rechtspersoonlijkheid voor AI, zie de link hier).

In al dit potentiële juridische moeras stapt een idee naar voren als een mogelijke remedie, hetzij op korte termijn of mogelijk op lange termijn. Het idee is dat er misschien een speciaal compensatiefonds moet worden opgericht om financiële hulp te bieden aan degenen die door AI zijn benadeeld. Als u er anders niet in slaagt de AI u te laten compenseren, en u kunt de personen die vermoedelijk verantwoordelijk zouden moeten worden gehouden niet opsporen, dan is de beste optie wellicht om een ​​compensatiefonds aan te boren dat tot doel heeft degenen die door AI zijn benadeeld, te helpen.

Een dergelijk fonds zou vergelijkbaar zijn met een soort verzekering, zoals vermeld in een tot nadenken stemmende onderzoekspaper: "Dit zou in wezen een verzekeringsmechanisme zijn tegen onzekerheid: een duidelijk en transparant kader voor snelle compensatie in gevallen waarin een aansprakelijkheidszaak is onzeker of geen kans van slagen vanwege de onvoorzienbare aard van de schadelijke gedraging, de (soort) schade zelf, of de buitensporige kosten en/of complexiteit van de procedure” (artikel door Olivia Erdelyi en Gabor Erdelyi, “The AI ​​Liability Puzzle En een op fondsen gebaseerde work-around”, Tijdschrift voor onderzoek naar kunstmatige intelligentie, 2021).

Het compensatiefonds zou deel uitmaken van een overkoepelend AI-garantiestelsel (AIGS) en vergezeld gaan van enkele lichte wijzigingen in bestaande wetten over wettelijke aansprakelijkheid. De lichte aanraking zou vermoedelijk gemakkelijker uit te voeren zijn en niet de zware vorm van juridische en maatschappelijke angst vereisen als er een meer hartverscheurende reeks demonstratieve veranderingen zou worden aangebracht in de bestaande wettelijke regimes. Volgens de onderzoekers: "Dit weerspiegelt onze overtuiging dat - ondanks de aantrekkingskracht van zo'n snelle oplossing - de ongewijzigd toepassing van bestaande aansprakelijkheidsregels op AI of a protectionistisch gemotiveerd een beroep op strikte aansprakelijkheid om koste wat kost verantwoordelijkheid vast te stellen, zijn om drie redenen niet de juiste antwoorden: ten eerste, negerend dat die regels zijn toegesneden op verschillende omstandigheden en dus ongeschikt kunnen zijn voor AI, zijn ze in strijd met de nauwkeurig uitgebalanceerde doelstellingen van de wettelijk aansprakelijkheidssysteem. Ten tweede remmen ze AI-innovatie door een overdreven bestraffende aanpak te hanteren. Ten derde, ongepaste toevlucht tot strikte aansprakelijkheid omzeilt alleen voorzienbaarheid en foutproblemen op een dogmatisch inconsistente manier in plaats van ze te verhelpen” (zoals in het hierboven aangehaalde artikel).

Argumenten voor dergelijke KI-compensatiefondsen zijn onder meer:

  • Vermindert de noodzaak van langdurige en kostbare juridische processen om door AI veroorzaakte schade het hoofd te bieden
  • Stelt mensen gerust dat ze AI kunnen gebruiken en gecompenseerd kunnen worden als ze schade oplopen
  • Bevordert AI-innovatie door de rechtsonzekerheid voor AI-innovators weg te nemen
  • Kan veel sneller in gebruik worden genomen dan grote wijzigingen in bestaande wetten aan te brengen
  • Biedt een relatief duidelijke remedie die betrouwbaar en direct beschikbaar is
  • Overige

Ondertussen zeggen degenen die tegen de AI-compenserende fondsenbenadering zijn dit:

  • Laten we AI-makers buitensporig van de hak nemen en hen toestaan ​​om verantwoording af te leggen
  • Zal AI-makers aanmoedigen om AI te maken zonder plichtsgetrouwe veiligheid en goede controles
  • Kan mensen ertoe aanzetten om valselijk te beweren dat AI schade toebrengt, zodat ze het geld kunnen aanboren
  • Omzeilt en ondermijnt de echte noodzaak om onze wetten te herzien om AI voldoende te besturen
  • Kan een bureaucratische nachtmerrie worden die vastloopt en het geld misbruikt
  • Overige

Zoals duidelijk zal zijn, zijn er zowel voor- als tegenstanders van dit totaal controversiële begrip.

Het zou moeilijk zijn om het AI-compensatiefonds summier uit te sluiten als een mogelijke benadering van de toenemende bezorgdheid over AI die schade veroorzaakt. De voorgestelde oplossing is ook geen slam dunk.

Eén standpunt is dat AI-makers geld in de fondsen zouden moeten steken als onderdeel van hun inspanningen bij het bedenken en verspreiden van AI. Dit kan worden opgevat als een soort vergoeding of belasting die ze moeten dragen als onderdeel van het kunnen vrijgeven van hun AI aan de wereld. Maar onderdrukken deze extra kosten mogelijk de inspanningen van startups die de grenzen van de huidige AI proberen te verleggen? En hoe zou de handhaving worden afgehandeld om ervoor te zorgen dat AI-makers hun vergoeding of belasting betalen?

Een hele reeks vragen rijzen en moeten worden gehamerd:

  • In welke landen zou een AI-compensatiefonds het beste haalbaar zijn?
  • Zou er een wereldwijde schijn van onderling verbonden AI-compensatiefondsen kunnen worden vastgesteld?
  • Wat zijn de gedetailleerde en werkbare mechanismen die aan dergelijke fondsen zijn gekoppeld?
  • Hoe moeten de AI-compensatiefondsen worden gefinancierd (publiek, privaat, liefdadigheidsinstellingen)?
  • Zou dit een verzekering buiten schuld zijn of zou er een andere benadering worden gevolgd?
  • Enz.

Een rijk waar het idee van AI-compenserende fondsen al rond draait, bestaat uit autonome systemen zoals autonome voertuigen en zelfrijdende auto's. Voor mijn berichtgeving over zelfrijdende auto's en AI-autonome systemen, zie: de link hier.

Hier is een schets van hoe dit zou kunnen werken voor op AI gebaseerde zelfrijdende auto's.

Stel dat een zelfrijdende auto een fietser aanrijdt. De fietser is gewond. De motorrijder kan juridisch verhaal zoeken door de automaker van het autonome voertuig te vervolgen. Of ze richten zich misschien op het zelfrijdende technologiebedrijf dat het AI-aandrijfsysteem heeft gemaakt. Als de zelfrijdende auto als een wagenpark wordt geëxploiteerd, zou een andere juridische weg zijn om de wagenparkbeheerder te vervolgen. Proberen de AI aan te klagen is op dit moment geen optie, aangezien de rechtspersoonlijkheid van AI nog niet is vastgesteld.

In plaats van juridische stappen te ondernemen tegen een van deze partijen, zou een ander middel zijn om een ​​aanvraag in te dienen of een claim in te dienen bij een geschikt AI-compensatiefonds. Het fonds zou processen hebben geformaliseerd die betrekking hebben op de beoordeling van de claim, en vervolgens bepalen of er eventueel compenserende betalingen aan de eiser kunnen worden verstrekt. Er kan een beroepsprocedure zijn die helpt bij eisers die menen dat ze ten onrechte door het fonds zijn afgewezen of onvoldoende door het fonds zijn gecompenseerd.

In theorie zou het AI-compensatiefonds een veel snellere weg zijn om compensatie te krijgen voor de toegebrachte schade. Je kunt je voorstellen hoe moeizaam een ​​rechtszaak kan zijn, waarbij de bedrijven die worden aangeklaagd, proberen de zaak uit te slepen.

Advocaten zouden echter kunnen benadrukken dat het AI-compensatiefonds die andere partijen, zoals de AI-makers, schijnbaar een duidelijke boete zou kunnen laten vermijden omdat ze hun zelfrijdende auto op de openbare weg hebben losgelaten en uiteindelijk een fietser hebben geraakt. Wat zouden die bedrijven nog meer kunnen kiezen om 'onzorgvuldig' te doen? Zonder het dreigende spook van het juridische zwaard dat boven hun hoofden bungelt, zouden we ons dagelijks geconfronteerd kunnen zien met AI die bol staat van gevaarlijke capaciteiten.

Rond en rond gaan de argumenten.

Conclusie

AI Ethics herinnert ons eraan dat we altijd rekening moeten houden met de ethische en juridische gevolgen van AI. In dit geval van de AI-compensatiefondsen lijkt het voorgestelde idee van een verzekeringsachtige pool van fondsen voor het compenseren van degenen die door AI worden benadeeld, aantrekkelijk. De fondsen zouden daar schijnbaar wachten, klaar om te worden aangeboord, en de snelst mogelijke compensatie bieden.

De afweging of dit de sluizen zou kunnen openen om AI te maken met steeds minder veiligheidscontroles, is een ontmoedigende en maar al te reële zorg. We hoeven waarschijnlijk geen brandstof toe te voegen aan een vuur dat misschien al een beetje aan de gang is.

Kunnen we AI-makers op de een of andere manier aanhouden om passende ethische AI ​​te bedenken en tegelijkertijd deze compenserende fondsen voor AI op te richten?

Sommigen zouden zeggen: ja, dat kunnen we. Door bestaande wetten aan te passen aan de AI-compensatiefondsen, zouden degenen die door AI worden geschaad mogelijk een tweeledig pad hebben om hun rechtvaardige compensatie te zoeken.

Wie is er als eerste?

Ja, dat is degene die (zoals bij ons allemaal) het eerste opvalt dat we moeten nadenken over het mogelijke gebruik van AI-compensatiefondsen en bestaande wetten moeten wijzigen, zelfs al is het maar licht, om een ​​middel te bieden om de aanval van zowel goede AI als slechte AI.

Er is geen verwarring over die essentiële overweging.

Bron: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- verantwoordelijkheid/