3 redenen waarom uw organisatie externe algoritmebeoordelaars nodig heeft

Door Satta Sarmah-Hightower

Bedrijfsleiders halen alle waarde uit kunstmatige intelligentie (AI). Een KPMG-studie uit 2021 vindt een meerderheid van de bedrijfsleiders van de overheid, industriële productie, financiële dienstverlening, detailhandel, life science en gezondheidszorg zegt dat AI op zijn minst matig functioneel is in hun organisaties. Uit het onderzoek blijkt ook dat de helft van de respondenten zegt dat hun organisatie de adoptie van AI heeft versneld als reactie op de Covid-19-pandemie. Bij organisaties waar AI is geadopteerd, zegt minstens de helft dat de technologie de verwachtingen heeft overtroffen.

AI-algoritmen zijn in toenemende mate verantwoordelijk voor een verscheidenheid aan hedendaagse interacties en innovaties, van gepersonaliseerde productaanbevelingen en klantenservice ervaringen voor banken leenbeslissingen en zelfs reactie van de politie.

Maar ondanks alle voordelen die ze bieden, brengen AI-algoritmen grote risico's met zich mee als ze niet effectief worden gecontroleerd en geëvalueerd op veerkracht, eerlijkheid, verklaarbaarheid en integriteit. Om bedrijfsleiders te helpen bij het monitoren en evalueren van AI, blijkt uit het onderzoek waarnaar hierboven wordt verwezen dat a steeds meer bedrijfsleiders willen dat de overheid AI reguleert om organisaties in staat te stellen te investeren in de juiste technologie en bedrijfsprocessen. Voor de nodige ondersteuning en overzicht is het verstandig om externe assessments in overweging te nemen die worden aangeboden door een dienstverlener met ervaring in het verlenen van dergelijke diensten. Hier zijn drie redenen waarom.

1. Algoritmen zijn "zwarte dozen"

AI-algoritmen - die leren van gegevens om problemen op te lossen en taken te optimaliseren - maken systemen slimmer, waardoor ze veel sneller inzichten kunnen verzamelen en genereren dan mensen ooit zouden kunnen.

Sommige belanghebbenden beschouwen deze algoritmen echter als 'zwarte dozen', legt Drew Rosen uit, directeur audit bij KPMG, een toonaangevend bedrijf in professionele dienstverlening. In het bijzonder begrijpen bepaalde belanghebbenden mogelijk niet hoe het algoritme tot een bepaalde beslissing is gekomen en hebben ze daarom mogelijk geen vertrouwen in de eerlijkheid of nauwkeurigheid van die beslissing.

"De resultaten die uit het algoritme worden verkregen, kunnen vatbaar zijn voor vertekening en verkeerde interpretatie van resultaten", zegt Rosen. "Dat kan ook leiden tot enkele risico's voor de entiteit, omdat ze die resultaten benutten en [ze] delen met het publiek en hun belanghebbenden."

Een algoritme dat bijvoorbeeld foutieve gegevens gebruikt, is op zijn best ineffectief en in het slechtste geval schadelijk. Hoe zou dat er in de praktijk uit kunnen zien? Denk aan een op AI gebaseerde chatbot die gebruikers de verkeerde accountinformatie geeft of een geautomatiseerde vertaaltool die tekst onnauwkeurig vertaalt. Beide gevallen kunnen leiden tot ernstige fouten of verkeerde interpretaties voor overheidsinstanties of bedrijven, evenals de kiezers en klanten die vertrouwen op beslissingen die door die algoritmen worden genomen.

Een andere oorzaak van het blackbox-probleem is wanneer inherente vooringenomenheid doorsijpelt in de ontwikkeling van AI-modellen, wat mogelijk kan leiden tot vooringenomen besluitvorming. Kredietverstrekkers gebruiken bijvoorbeeld steeds vaker AI om de kredietwaardigheid van potentiële kredietnemers te voorspellen om kredietbeslissingen te nemen. Er kan echter een risico ontstaan ​​wanneer belangrijke inputs in de AI, zoals de kredietscore van een potentiële kredietnemer, heeft een materiële fout, wat ertoe leidt dat die individuen leningen worden geweigerd.

Dit benadrukt de behoefte aan een externe beoordelaar die als onpartijdige beoordelaar kan dienen en een gerichte beoordeling kan geven, op basis van geaccepteerde criteria, van de relevantie en betrouwbaarheid van de historische gegevens en aannames die een algoritme aandrijven.

2. Belanghebbenden en regelgevers eisen transparantie

In 2022 waren er op dit moment nog geen rapportageverplichtingen voor verantwoorde AI. Rosen zegt echter: "net zoals bestuursorganen ESG-regelgeving [environmental, social and governance] hebben geïntroduceerd om rapporteren over bepaalde ESG-statistieken, is het slechts een kwestie van tijd dat we aanvullende regelgevingsrapportage-eisen zien voor verantwoorde AI.”

In feite, met ingang van 1 januari 2023, New York City's Lokale wet 144 vereist dat er een bias-audit wordt uitgevoerd op een geautomatiseerd hulpmiddel voor arbeidsbeslissingen voordat het wordt gebruikt.

En op federaal niveau, National Artificial Intelligence Initiative Act van 2020-die voortbouwt op een 2019 uitvoeringsbevel— richt zich op technische AI-normen en begeleiding. Bovendien, de Wet op algoritmische verantwoording zou effectbeoordelingen van geautomatiseerde beslissingssystemen en verbeterde kritische besluitvormingsprocessen kunnen vereisen. En in het buitenland, de Wet kunstmatige intelligentie is voorgesteld en biedt een uitgebreid regelgevingskader met specifieke doelstellingen op het gebied van AI-veiligheid, compliance, governance en betrouwbaarheid.

Met deze verschuivingen komen organisaties onder een governancemicroscoop te liggen. Een beoordelaar van een algoritme kan dergelijke rapporten verstrekken die voldoen aan wettelijke vereisten en de transparantie van belanghebbenden vergroten, terwijl het risico wordt vermeden dat belanghebbenden dit verkeerd interpreteren of verkeerd interpreteren misleid door de resultaten van de beoordeling.

3. Bedrijven profiteren van risicobeheer op lange termijn

Steve Camara, een partner in de technologiegarantiepraktijk van KPMG, voorspelt dat AI-investeringen zullen blijven groeien naarmate entiteiten doorgaan met het automatiseren van processen, het ontwikkelen van innovaties die de klantervaring verbeteren en het distribueren van AI-ontwikkeling over bedrijfsfuncties. Om concurrerend en winstgevend te blijven, hebben organisaties effectieve controles nodig die niet alleen de onmiddellijke tekortkomingen van AI aanpakken, maar ook de langetermijnrisico's die verband houden met AI-gedreven bedrijfsactiviteiten verminderen.

Dit is waar externe beoordelaars ingrijpen als een vertrouwde, slimme hulpbron. Naarmate organisaties AI-integriteit steeds meer omarmen als een business enabler, kan het partnerschap minder een ad-hocservice worden en meer een consistente samenwerking worden, legt Camara uit.

"We zien een weg vooruit waarbij er een blijvende relatie moet zijn tussen organisaties die voortdurend AI ontwikkelen en operationaliseren en een objectieve externe beoordelaar", zegt hij.

Een blik op wat daarna komt

In de toekomst kunnen organisaties externe beoordelingen op een meer cyclische basis gebruiken, bijvoorbeeld bij het ontwikkelen van nieuwe modellen, het opnemen van nieuwe gegevensbronnen, het integreren van oplossingen van externe leveranciers of het navigeren door nieuwe nalevingsvereisten.

Wanneer aanvullende regelgeving en nalevingsvereisten worden opgelegd, kunnen externe beoordelaars mogelijk diensten verlenen om direct te evalueren hoe goed een organisatie AI heeft ingezet of gebruikt met betrekking tot die vereisten. Deze beoordelaars zijn dan het best gepositioneerd om de beoordelingsresultaten op een duidelijke en consistente manier te delen.

Om te profiteren van technologie en tegelijkertijd te beschermen tegen de beperkingen ervan, moet een organisatie externe beoordelaars zoeken om rapporten te verstrekken waarop ze kunnen vertrouwen om meer transparantie aan te tonen bij het inzetten van algoritmen. Van daaruit kunnen zowel de organisatie als de belanghebbenden de kracht en beperkingen van AI beter begrijpen.

Bron: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/