Verantwoorde AI geniet bij uitstek van een boost via de proclamatie van AI-ethiek door de ACM

Heb je het nieuws gezien of gehoord?

Een nieuwe reeks AI-ethische voorschriften is onlangs afgekondigd.

Een rauw applaus, als u wilt.

Nogmaals, misschien niet Ik heb het opgemerkt vanwege het feit dat er al een tijdje zoveel andere AI Ethics-decreten rondzweven. Sommigen zeggen dat de schijnbaar non-stop doorsijpeling van ethische AI-proclamaties een beetje verdovend aan het worden is. Hoeveel hebben we nodig? Kan iemand ze allemaal bijhouden? Welke is het beste? Gaan we misschien te ver met de principes van AI-ethiek? Enzovoort.

Welnu, in dit specifieke geval zeg ik dat we vooral deze nieuwste aanwinst bij de club moeten verwelkomen.

Ik zal in een oogwenk inzichtelijk uitleggen waarom.

Ten eerste verwijs ik ter verduidelijking naar de AI Ethics-voorschriften die nu officieel bekend staan ​​als “Verklaring over principes voor verantwoorde algoritmische systemen” die onlangs werd gepubliceerd door de ACM Technology Policy Council op 26 oktober 2022. Een pluim gaat uit naar de teams van experts die dit gewaardeerde document hebben samengesteld, waaronder mede-hoofdauteurs Jeanna Matthews (Clarkson University) en Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Degenen onder u die het weten, zullen zich bij nader inzien misschien realiseren dat dit document vaag bekend voorkomt.

Goed oog!

Deze nieuwste incarnatie is in wezen een geactualiseerde en uitgebreide variant van de eerdere gezamenlijke “Statement On Algorithmic Transparency And Accountability” die in 2017 werd afgekondigd door de ACM US Technology Policy Committee en de ACM Europe Technology Policy Committee. Trouwe lezers van mijn columns herinneren zich misschien dat Ik heb van tijd tot tijd het decreet van 2017 genoemd in mijn column over de belangrijkste facetten die ten grondslag liggen aan AI-ethiek en AI-wetgeving.

Zie voor mijn uitgebreide en doorlopende beoordeling en trendanalyses van AI-ethiek en AI-recht de link hier en de link hier, om er een paar te noemen.

Deze laatste verklaring van de ACM is met name om verschillende vitale redenen van belang.

Dit is waarom.

De ACM, wat een handig acroniem is voor de Vereniging voor computerapparatuur, wordt beschouwd als 's werelds grootste op computers gerichte vereniging. Met naar schatting zo'n 110,000 leden is de ACM al lang een pionier op het gebied van computers. De ACM produceert een aantal van de beste wetenschappelijke onderzoeken op het gebied van computers, en biedt ook professionele netwerken en spreekt ook computerbeoefenaars aan. Als zodanig is de ACM een belangrijke stem die in het algemeen diegenen vertegenwoordigt die hightech zijn en die er voortdurend naar heeft gestreefd om het computerveld vooruit te helpen (de ACM werd opgericht in 1947).

Ik zou hier ook een persoonlijke noot aan kunnen toevoegen. Toen ik op de middelbare school voor het eerst met computers in aanraking kwam, sloot ik me aan bij de ACM en nam deel aan hun educatieve programma's, vooral de opwindende kans om deel te nemen aan hun jaarlijkse computerprogrammeerwedstrijd (dergelijke wedstrijden zijn tegenwoordig algemeen gebruikelijk en worden meestal bestempeld als hackathons). Ik blijf tijdens mijn studie betrokken bij de ACM via mijn plaatselijke universiteitsafdeling en kreeg de kans om meer te leren over leiderschap door een studenthoofdstukfunctionaris te worden. Toen ik in de industrie kwam, sloot ik me aan bij een professionele afdeling en nam ik opnieuw een leidende rol op me. Later, toen ik hoogleraar werd, zat ik in ACM-commissies en redacties, en sponsorde ik de campusstudentenafdeling. Tot op de dag van vandaag ben ik actief bij de ACM, onder meer in de ACM US Technology Policy Committee.

Ik geniet van de innemende en duurzame visie van ACM op levenslang leren en loopbaanontwikkeling.

In de laatste AI Ethics statement weegt in ieder geval zwaar mee dat deze is afgegeven door de ACM. Je zou redelijkerwijs kunnen beweren dat de ethische AI-voorschriften de totaliteit of collectieve stem zijn van een wereldwijde groep computerprofessionals. Dat zegt daar iets.

Er is ook het aspect dat anderen in de computerwereld geïnspireerd zullen worden om op te vrolijken en te luisteren in de zin dat ze terdege rekening houden met wat de verklaring beweert van hun collega-computercollega's. Dus zelfs voor degenen die niet in de ACM zitten of helemaal niets weten over de gerespecteerde groep, zal er hopelijk grote belangstelling zijn om te ontdekken waar de verklaring over gaat.

Ondertussen, degenen die dat zijn buiten van het computerveld zou kunnen worden aangetrokken door de verklaring als een soort kijkje achter de schermen van wat computers zeggen over ethische AI. Ik wil echter benadrukken dat de verklaring voor iedereen bedoeld is, niet alleen voor degenen in de computergemeenschap, en houd er daarom rekening mee dat de AI Ethics-voorschriften als het ware over de hele linie gelden.

Ten slotte is er een extra wending die maar weinigen zouden overwegen.

Soms beschouwen buitenstaanders computerverenigingen als kniediep in technologie en niet bijzonder op de hoogte van de maatschappelijke impact van computers en AI. U zou in de verleiding kunnen komen om aan te nemen dat dergelijke professionele entiteiten alleen geïnteresseerd zijn in de nieuwste en populairste doorbraken in hardware of software. Ze worden door het publiek op een simpel gezegd ruige manier gezien als techneuten.

Om de zaken recht te zetten: ik ben ondergedompeld in de sociale gevolgen van computers sinds ik voor het eerst met computers in aanraking kwam, en de ACM is ook nauw betrokken bij dergelijke onderwerpen.

Voor iedereen die verrast is dat deze verklaring over AI-ethische voorschriften is samengesteld en vrijgegeven door de ACM: ze besteden geen aandacht aan het langdurige onderzoek en werk dat aan deze zaken wordt gedaan. Ik dring er bij belangstellenden ook op aan om goed naar de ACM te kijken Ethische code, een strenge professionele ethische code die in de loop der jaren is geëvolueerd en benadrukt dat systeemontwikkelaars zich bewust moeten zijn van, zich moeten houden aan en waakzaam moeten zijn over de ethische gevolgen van hun inspanningen en producten.

AI heeft het vuur aangewakkerd om geïnformeerd te worden over computerethiek.

De zichtbaarheid van ethische en juridische overwegingen op het gebied van computers is enorm toegenomen met de opkomst van de hedendaagse AI. Degenen binnen de beroepsgroep worden geïnformeerd en soms getrommeld om de juiste aandacht te besteden aan kwesties op het gebied van AI-ethiek en AI-wetgeving. Wetgevers worden zich steeds meer bewust van aspecten van AI-ethiek en AI-wetgeving. Bedrijven worden steeds meer bewust van het idee dat de AI die ze bedenken of gebruiken zowel voordelig is als soms ook enorme risico's en potentiële nadelen met zich meebrengt.

Laten we uitpakken wat er de afgelopen jaren is gebeurd, zodat een passende context kan worden vastgesteld voordat we ingaan op deze nieuwste reeks AI-ethische voorschriften.

Het toenemende bewustzijn van ethische AI

Het recente tijdperk van AI werd aanvankelijk gezien als AI voorgoed, wat betekent dat we AI kunnen gebruiken voor de verbetering van de mensheid. Op de hielen van AI voorgoed kwam het besef dat we ook ondergedompeld zijn in AI voor slecht. Dit omvat AI die is bedacht of zelf is veranderd om discriminerend te zijn en die computationele keuzes maakt die onnodige vooroordelen veroorzaken. Soms is de AI op die manier gebouwd, terwijl hij in andere gevallen in dat ongewenste gebied terechtkomt.

Ik wil er ruimschoots zeker van zijn dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild zouden speculeren over bewuste AI, zou deze discussie een radicaal andere richting kunnen uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens. Sterker nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Ik zou sterk willen voorstellen dat we de zaken nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Wees heel voorzichtig met het antropomorfiseren van de hedendaagse AI.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonafstemmingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit alles heeft met name belangrijke implicaties voor AI-ethiek en biedt een handig venster op de geleerde lessen (zelfs voordat alle lessen zijn getrokken) als het gaat om het proberen om AI wetgeving te maken.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen vooraf dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die verschillende landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder hierin is benadrukt, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Ik heb onlangs ook gekeken naar de AI Bill van rechten wat de officiële titel is van het officiële document van de Amerikaanse regering getiteld "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People", dat het resultaat was van een jarenlange inspanning van het Office of Science and Technology Policy (OSTP ). De OSTP is een federale entiteit die dient om de Amerikaanse president en het US Executive Office te adviseren over verschillende technologische, wetenschappelijke en technische aspecten van nationaal belang. In die zin kun je zeggen dat deze AI Bill of Rights een document is dat is goedgekeurd door en onderschreven door het bestaande Amerikaanse Witte Huis.

In de AI Bill of Rights zijn er vijf keystone-categorieën:

  • Veilige en effectieve systemen
  • Algoritmische discriminatiebescherming
  • Data Privacy
  • Opmerking en uitleg
  • Menselijke alternatieven, overweging en terugval

Ik heb die voorschriften zorgvuldig doorgenomen, zie je? de link hier.

Nu ik een nuttige basis heb gelegd voor deze gerelateerde onderwerpen op het gebied van AI-ethiek en AI-wetgeving, zijn we klaar om in te gaan op de onlangs uitgebrachte ACM "Statement on Principles For Responsible Algorithmic Systems" (trouwens, aangezien de titel van het document verwijst naar verantwoordelijk algoritmische systemen, wil je misschien eens kijken naar mijn inschatting van wat het betekent om over te spreken Betrouwbare AI, Zie de link hier).

Bereid u voor op een reis door deze nieuwste reeks AI Ethics-principes.

Aandachtig graven in de ACM-gedeclareerde AI-ethische voorschriften

Het ACM-uitspraak over Ethische AI ​​bestaat uit deze negen pijlers:

  • Legitimiteit en competentie
  • Schade minimaliseren
  • Beveiliging en privacy
  • Transparantie
  • Interpreteerbaarheid en verklaarbaarheid
  • Onderhoudbaarheid
  • Betwistbaarheid en controleerbaarheid
  • Verantwoording en verantwoordelijkheid
  • Beperking van de milieueffecten

Als je deze nieuwste set vergelijkt met andere, met name beschikbare sets, is er veel overeenkomst of verwantschap tussen hen.

Aan de ene kant kun je dat als een goed teken beschouwen.

We zouden in het algemeen kunnen hopen dat de vele AI-ethiekprincipes die rondzweven allemaal samenvloeien in de richting van dezelfde algemene dekking. Zien dat de ene set enigszins vergelijkbaar is met een andere set, geeft je een schijn van vertrouwen dat deze sets zich binnen dezelfde marge bevinden en niet op de een of andere manier in een raadselachtig links veld.

Een mogelijke klacht van sommigen is dat deze verschillende sets ongeveer hetzelfde lijken, wat dan mogelijk voor verwarring of op zijn minst consternatie zorgt vanwege het bezwaar dat we niet veel schijnbaar dubbele lijsten zouden moeten hebben. Kan er niet één lijst zijn? Het probleem is natuurlijk dat er geen eenvoudige manier is om al dergelijke lijsten uniform precies hetzelfde te krijgen. Verschillende groepen en verschillende entiteiten hebben dit op verschillende manieren benaderd. Het goede nieuws is dat ze vrijwel allemaal tot dezelfde overkoepelende conclusie zijn gekomen. We kunnen opgelucht zijn dat de sets geen grote verschillen hebben, wat ons misschien ongemakkelijk zou maken als er geen algemene consensus was.

Iemand die tegendraads is, zou kunnen aansporen dat de gemeenschappelijkheid van deze lijsten verontrustend is, met het argument dat er misschien een groepsdenken aan de gang is. Misschien denken al deze ongelijksoortige groepen op dezelfde manier en kunnen ze niet verder kijken dan de norm. We trappen allemaal in dezelfde val. De lijsten verankeren ogenschijnlijk ons ​​denken en we kunnen niet verder kijken dan onze eigen neus.

Verder kijken dan onze neus is ongetwijfeld een goed doel.

Ik sta er zeker voor open om te horen wat tegenstanders te zeggen hebben. Soms krijgen ze lucht van iets dat de Titanisch op weg naar een gigantische ijsberg. We kunnen een paar uitkijkposten gebruiken. Maar met betrekking tot deze AI Ethics-voorschriften is er niets definitief verwoord door tegenstanders dat duidelijk lijkt te ondermijnen of zorgen te wekken over een ongepaste gemeenschappelijkheid die gaande is. Ik denk dat we het goed doen.

In deze ACM-set zijn er een paar bijzonder opvallende of opvallende punten waarvan ik denk dat ze bijzondere aandacht verdienen.

Ten eerste hou ik van de formulering op het hoogste niveau, die enigszins afwijkt van de norm.

Verwijzend naar bijvoorbeeld legitimiteit en competentie (het eerste item met opsommingsteken) roept een schijn op van het belang van zowel ontwerper- als managementcompetenties in verband met AI. tevens de wettigheid slogan leidt ons uiteindelijk naar de AI-ethiek en AI-rechtsgebied. Ik zeg dit omdat veel van de AI Ethics-voorschriften zich bijna volledig concentreren op de ethische implicaties, maar lijken de juridische gevolgen ook over het hoofd te zien of er niet voor terugdeinzen. Op juridisch gebied worden ethische overwegingen vaak aangeprezen als "zachte wetten", terwijl de wetten in de boeken worden opgevat als "harde wetten" (wat betekent dat ze het gewicht van de rechtbanken dragen).

Een van mijn favoriete uitspraken aller tijden werd geuit door de beroemde jurist Earl Warren: "In het beschaafde leven drijft de wet in een zee van ethiek."

We moeten ervoor zorgen dat de AI-ethiekvoorschriften ook de harde kant van de zaak omvatten en benadrukken, zoals bij het opstellen, uitvaardigen en handhaven van AI-wetten.

Ten tweede stel ik het op prijs dat de lijst bevat betwistbaarheid en controleerbaarheid.

Ik heb herhaaldelijk geschreven over de waarde van het kunnen aanvechten of een rode vlag kunnen hijsen wanneer je onderworpen bent aan een AI-systeem, zie de link hier. Bovendien zullen we steeds vaker nieuwe wetten zien die AI-systemen dwingen om te worden gecontroleerd, wat ik uitgebreid heb besproken over de wet van New York City (NYC) over het controleren van vooroordelen van AI-systemen die worden gebruikt voor het aannemen en promoten van werknemers, zie de link hier. Helaas, en volgens mijn openlijke kritiek op de nieuwe wet van NYC, zullen deze wetten voor controleerbaarheid waarschijnlijk meer problemen veroorzaken dan ze oplossen als ze gebrekkig zijn.

Ten derde is er een geleidelijk besef dat AI duurzaamheidskwesties kan doordringen en ik ben blij te zien dat de milieu onderwerp kreeg een facturering op het hoogste niveau in deze AI-ethiekvoorschriften (zie het laatste opsommingsteken van de lijst).

Alleen al het maken van een AI-systeem kan veel computerbronnen vergen. Die computerbronnen kunnen direct of indirect duurzaamheidsoverweldigers zijn. Er moet een afweging worden gemaakt tussen de voordelen die een AI biedt versus de kosten die gepaard gaan met de AI. De laatste van de ACM-items met opsommingstekens maakt melding van de duurzaamheids- en milieuoverwegingen die zich voordoen bij AI. Zie voor mijn berichtgeving over AI-gerelateerde problemen met de COXNUMX-voetafdruk de link hier.

Nu we de ACM-lijst met AI Ethics-voorschriften torenhoog hebben bekeken, steken we vervolgens onze tenen dieper in het water.

Hier zijn de officiële beschrijvingen voor elk van de AI Ethics-voorschriften op hoog niveau (geciteerd uit de formele verklaring):

1. "Legitimiteit en competentie: Ontwerpers van algoritmische systemen moeten de managementcompetentie en expliciete autorisatie hebben om dergelijke systemen te bouwen en in te zetten. Ze moeten ook expertise hebben in het toepassingsdomein, een wetenschappelijke basis voor het beoogde gebruik van de systemen, en algemeen worden beschouwd als sociaal legitiem door belanghebbenden die door het systeem worden beïnvloed. Juridische en ethische beoordelingen moeten worden uitgevoerd om te bevestigen dat alle risico's die door de systemen worden geïntroduceerd, in verhouding staan ​​tot de problemen die worden aangepakt, en dat alle afwegingen tussen voordelen en nadelen door alle relevante belanghebbenden worden begrepen.

2. "Minimaliseren van schade: Managers, ontwerpers, ontwikkelaars, gebruikers en andere belanghebbenden van algoritmische systemen moeten zich bewust zijn van de mogelijke fouten en vooroordelen die betrokken zijn bij het ontwerp, de implementatie en het gebruik ervan, en de potentiële schade die een systeem kan toebrengen aan individuen en de samenleving. Organisaties moeten routinematig effectbeoordelingen uitvoeren op systemen die ze gebruiken om te bepalen of het systeem schade kan veroorzaken, met name discriminerende schade, en om passende maatregelen toe te passen. Waar mogelijk moeten ze leren van metingen van daadwerkelijke prestaties, niet alleen patronen van beslissingen uit het verleden die zelf discriminerend kunnen zijn geweest.”

3. "Veiligheid en privacy: Risico's van kwaadwillende partijen kunnen worden beperkt door best practices op het gebied van beveiliging en privacy in elke fase van de levenscyclus van de systemen te introduceren, inclusief robuuste controles om nieuwe kwetsbaarheden die zich voordoen in de context van algoritmische systemen te beperken."

4. "Transparantie: Systeemontwikkelaars worden aangemoedigd om duidelijk te documenteren op welke manier specifieke datasets, variabelen en modellen zijn geselecteerd voor ontwikkeling, training, validatie en testen, evenals de specifieke maatregelen die zijn gebruikt om de kwaliteit van gegevens en uitvoer te garanderen. Systemen moeten hun mate van vertrouwen in elke output aangeven en mensen moeten ingrijpen wanneer het vertrouwen laag is. Ontwikkelaars moeten ook de benaderingen documenteren die werden gebruikt om mogelijke vooroordelen te onderzoeken. Voor systemen met een kritieke impact op het leven en het welzijn zouden onafhankelijke verificatie- en validatieprocedures vereist moeten zijn. Openbare controle van de gegevens en modellen biedt maximale mogelijkheid tot correctie. Ontwikkelaars moeten daarom testen door derden faciliteren in het algemeen belang.”

5. "Interpreteerbaarheid en verklaarbaarheid: Beheerders van algoritmische systemen worden aangemoedigd om informatie te produceren over zowel de procedures die de gebruikte algoritmen volgen (interpreteerbaarheid) als de specifieke beslissingen die ze nemen (verklaarbaarheid). Verklaarbaarheid kan net zo belangrijk zijn als nauwkeurigheid, vooral in contexten van overheidsbeleid of elke omgeving waarin men zich zorgen maakt over hoe algoritmen kunnen worden scheefgetrokken om de ene groep voordeel te bieden boven de andere zonder erkenning. Het is belangrijk om onderscheid te maken tussen verklaringen en rationalisaties achteraf die niet het bewijs of het besluitvormingsproces weergeven dat is gebruikt om tot de conclusie te komen die wordt uitgelegd.

6. "Onderhoudbaarheid: Bewijs van de deugdelijkheid van alle algoritmische systemen moet gedurende hun levenscyclus worden verzameld, inclusief documentatie van systeemvereisten, het ontwerp of de implementatie van wijzigingen, testgevallen en resultaten, en een logboek van gevonden en opgeloste fouten. Voor goed onderhoud kan het nodig zijn om systemen opnieuw te trainen met nieuwe trainingsgegevens en/of de gebruikte modellen te vervangen.”

7. "Betwistbaarheid en controleerbaarheid: Regelgevers moeten de invoering van mechanismen aanmoedigen die individuen en groepen in staat stellen de resultaten in twijfel te trekken en verhaal te halen voor nadelige effecten die voortvloeien uit algoritmisch geïnformeerde beslissingen. Managers moeten ervoor zorgen dat gegevens, modellen, algoritmen en beslissingen worden vastgelegd, zodat ze kunnen worden gecontroleerd en de resultaten kunnen worden gerepliceerd in gevallen waarin schade wordt vermoed of beweerd. Auditingstrategieën moeten openbaar worden gemaakt om individuen, organisaties van openbaar belang en onderzoekers in staat te stellen verbeteringen te beoordelen en aan te bevelen.”

8. "Verantwoordelijkheid en verantwoordelijkheid: Openbare en particuliere instanties moeten verantwoordelijk worden gehouden voor beslissingen die worden genomen door algoritmen die zij gebruiken, ook al is het niet haalbaar om in detail uit te leggen hoe die algoritmen tot hun resultaten hebben geleid. Dergelijke instanties zouden verantwoordelijk moeten zijn voor volledige systemen zoals die in hun specifieke context worden ingezet, niet alleen voor de afzonderlijke onderdelen waaruit een bepaald systeem bestaat. Wanneer er problemen in geautomatiseerde systemen worden gedetecteerd, moeten organisaties die verantwoordelijk zijn voor de implementatie van die systemen, de specifieke acties documenteren die zij zullen ondernemen om het probleem op te lossen en onder welke omstandigheden het gebruik van dergelijke technologieën moet worden opgeschort of beëindigd.”

9. "Milieueffecten beperken: Algoritmische systemen moeten worden ontworpen om schattingen van milieueffecten te rapporteren, inclusief koolstofemissies van zowel training als operationele berekeningen. AI-systemen moeten worden ontworpen om ervoor te zorgen dat hun koolstofemissies redelijk zijn, gezien de mate van nauwkeurigheid die vereist is door de context waarin ze worden ingezet.”

Ik vertrouw erop dat u elk van deze cruciale AI-ethiekvoorschriften zorgvuldig en in het verleden zult lezen. Neem ze alstublieft ter harte.

Conclusie

Er is een subtiel maar even cruciaal deel van de ACM-uitspraak waarvan ik denk dat velen onbedoeld over het hoofd zullen zien. Laat me dit zeker onder uw aandacht brengen.

Ik verwijs naar een gedeelte dat het pijnlijke raadsel bespreekt van het moeten afwegen van afwegingen in verband met de AI Ethics-voorschriften. Zie je, de meeste mensen knikken vaak dwaas met hun hoofd bij het lezen van ethische AI-principes en gaan ervan uit dat alle voorschriften even belangrijk zijn en dat alle voorschriften altijd dezelfde optimale schijn van eerbied en waarde zullen krijgen.

Niet in de echte wereld.

Als het rubber de weg raakt, zal elke vorm van AI die zelfs maar een beetje ingewikkeld is, de AI Ethics-voorschriften op een akelige manier testen om te zien of sommige elementen voldoende haalbaar zijn ten opzichte van sommige van de andere principes. Ik realiseer me dat je misschien hardop uitroept dat alle AI moet maximaliseren op basis van alle AI Ethics-voorschriften, maar dit is niet bijzonder realistisch. Als dat het standpunt is dat u wilt innemen, durf ik te zeggen dat u waarschijnlijk de meeste of bijna alle AI-makers en -gebruikers zou moeten vertellen om de winkel te sluiten en AI helemaal op te bergen.

Er moeten compromissen worden gesloten om AI de deur uit te krijgen. Dat gezegd hebbende, pleit ik niet voor bezuinigingen die de AI-ethische voorschriften schenden, noch impliceer ik dat ze AI-wetten zouden moeten overtreden. Er moet aan een bepaald minimum worden voldaan, en daarboven moet worden gestreefd naar meer. Uiteindelijk moet een balans zorgvuldig worden beoordeeld. Deze evenwichtsoefening moet op een bewuste, expliciete, wettige manier worden uitgevoerd en met AI-ethiek als een bonafide en oprechte overtuiging (misschien wilt u zien hoe bedrijven AI Ethics Boards gebruiken om te proberen deze plechtige aanpak te verwerven, zie de link hier).

Hier zijn enkele punten met opsommingstekens die de ACM-verklaring vermeldt over de complexiteit van afwegingen (geciteerd uit het formele document):

  • "Oplossingen moeten in verhouding staan ​​tot het probleem dat wordt opgelost, zelfs als dat van invloed is op de complexiteit of de kosten (bijvoorbeeld het afwijzen van het gebruik van openbare videobewaking voor een eenvoudige voorspellingstaak)."
  • “Er moet rekening worden gehouden met een breed scala aan prestatiestatistieken en deze kunnen verschillend worden gewogen op basis van het toepassingsdomein. In sommige toepassingen in de gezondheidszorg kunnen de effecten van valse negatieven bijvoorbeeld veel erger zijn dan valse positieven, terwijl in het strafrecht de gevolgen van valse positieven (bijvoorbeeld het opsluiten van een onschuldige persoon) veel erger kunnen zijn dan valse negatieven. De meest wenselijke opstelling van het operationele systeem is zelden degene met maximale nauwkeurigheid.”
  • “Bezorgdheid over privacy, het beschermen van handelsgeheimen, of onthulling van analyses waardoor kwaadwillende actoren het systeem kunnen bespelen, kan het beperken van de toegang tot gekwalificeerde personen rechtvaardigen, maar ze mogen niet worden gebruikt om het beperken van controle door derden te rechtvaardigen of om ontwikkelaars vrij te pleiten van de verplichting om fouten te erkennen en te herstellen.”
  • “Transparantie moet gepaard gaan met verantwoordingsprocessen die belanghebbenden die door een algoritmisch systeem worden getroffen, in staat stellen zinvolle schadeloosstelling te zoeken voor aangerichte schade. Transparantie mag niet worden gebruikt om een ​​systeem te legitimeren of verantwoordelijkheid af te schuiven op andere partijen.”
  • “Als de impact van een systeem groot is, kan een beter verklaarbaar systeem de voorkeur hebben. In veel gevallen is er geen afweging tussen verklaarbaarheid en nauwkeurigheid. In sommige contexten kunnen onjuiste verklaringen echter zelfs erger zijn dan geen verklaring (in gezondheidsstelsels kan een symptoom bijvoorbeeld overeenkomen met veel mogelijke ziekten, niet slechts met één).”

Degenen die AI ontwikkelen of gebruiken, realiseren zich misschien niet openlijk de afwegingen waarmee ze worden geconfronteerd. Topleiders van een bedrijf kunnen naïef aannemen dat de AI voldoet aan de maxima van alle AI Ethics-principes. Ze geloven dit omdat ze geen idee hebben van de AI, of ze willen dit geloven en doen misschien een knipoog om AI gemakkelijk te adopteren.

De kans is groot dat het niet inhoudelijk en openlijk confronteren van de afwegingen zal eindigen met een AI die schade gaat aanrichten. Die schade zal op zijn beurt een bedrijf waarschijnlijk blootstellen aan potentieel grootschalige aansprakelijkheden. Bovendien kunnen conventionele wetten van toepassing worden voor mogelijke criminele handelingen die verband houden met de AI, samen met de nieuwere AI-gerichte wetten die hierop hameren. Een hoop stenen wacht boven de hoofden van degenen die denken dat ze hun weg kunnen vinden tussen de afwegingen of die totaal niet weten dat de afwegingen bestaan ​​(er zal onvermijdelijk een verpletterend besef op hen vallen).

Ik zal voorlopig het laatste woord over dit onderwerp geven aan het afsluitende aspect van de ACM-uitspraak, aangezien ik denk dat het een robuuste taak is om uit te leggen wat deze ethische AI-voorschriften macroscopisch naar voren willen brengen:

  • “De voorgaande aanbevelingen richten zich op het verantwoord ontwerpen, ontwikkelen en gebruiken van algoritmische systemen; aansprakelijkheid moet worden bepaald door de wet en de openbare orde. De toenemende kracht van algoritmische systemen en hun gebruik in levenskritische en consequente toepassingen betekent dat er grote zorg moet worden betracht bij het gebruik ervan. Deze negen instrumentele principes zijn bedoeld als inspiratie bij het starten van discussies, het initiëren van onderzoek en het ontwikkelen van bestuursmethoden om voordelen te bieden aan een breed scala van gebruikers, terwijl betrouwbaarheid, veiligheid en verantwoordelijkheid worden bevorderd. Uiteindelijk is het de specifieke context die het juiste ontwerp en gebruik van een algoritmisch systeem definieert in samenwerking met vertegenwoordigers van alle betrokken belanghebbenden” (geciteerd uit het formele document).

Zoals woorden van wijsheid ons scherpzinnig vertellen, begint een reis van duizend mijl met een eerste stap.

Ik smeek u om vertrouwd te raken met AI-ethiek en AI-wetgeving, door elke eerste stap te nemen die u op weg helpt, en vervolgens te helpen bij het voortzetten van deze essentiële inspanningen. Het mooie is dat we nog in de kinderschoenen staan ​​om uit te zoeken hoe we AI kunnen beheren en er maatschappelijk mee om kunnen gaan.

De AI-reis is net begonnen en de essentiële eerste stappen zijn nog aan de gang.

Bron: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-refundable-computing- beroepsvereniging-de-acm/