Dit is waarom bedrijven een tumultueuze haat-liefdeverhouding hebben met AI Ethics Boards

Moet een bedrijf een AI Ethics-adviesraad oprichten?

Het zal je misschien verbazen dat dit geen gemakkelijk ja-of-nee-antwoord is.

Voordat ik inga op de complexiteiten die ten grondslag liggen aan de voor- en nadelen van het opzetten van een AI Ethics-adviesraad, laten we ervoor zorgen dat we allemaal op dezelfde pagina staan ​​over waar een AI Ethics-adviesraad uit bestaat en waarom deze is gestegen tot headline-niveau uitsteeksel.

Zoals iedereen weet, zijn kunstmatige intelligentie (AI) en het praktische gebruik van AI voor zakelijke activiteiten door het dak gegaan als een must-have voor moderne bedrijven. Het zou moeilijk zijn om anders te beweren. Tot op zekere hoogte heeft de infusie van AI producten en diensten beter gemaakt, en soms geleid tot lagere kosten voor het leveren van genoemde producten en diensten. Een handige lijst van efficiëntie- en effectiviteitsverbeteringen kan mogelijk worden toegeschreven aan de verstandige en juiste toepassing van AI. Kortom, het toevoegen of vergroten van wat u doet door AI te integreren, kan een behoorlijk winstgevende propositie zijn.

Er is ook de zullen we zeggen grote plons dat komt met het toevoegen van AI aan uw zakelijke inspanningen.

Bedrijven zijn luid en trots op hun gebruik van AI. Als de AI toevallig ook je waren verbetert, is dat geweldig. Ondertussen zijn beweringen over het gebruik van AI voldoende opvallend dat je vrijwel dezelfde dingen kunt doen die je eerder deed, maar toch veel meer geld of ogen verzamelen door de banner van AI rond te gooien als onderdeel van je bedrijfsstrategie en uit- de deur goederen.

Dat laatste punt over soms een beetje knoeien over de vraag of AI echt wordt gebruikt, zorgt ervoor dat we de arena van AI-ethiek betreden. Er worden door bedrijven allerlei ronduit valse beweringen gedaan over AI. Erger nog, misschien bestaat uit het gebruik van AI die de zogenaamde AI voor slecht.

U hebt bijvoorbeeld ongetwijfeld gelezen over de vele gevallen van AI-systemen die gebruikmaken van machine learning (ML) of deep learning (DL) die raciale vooroordelen, gendervooroordelen en andere ongepaste discriminerende praktijken hebben ingebakken. Voor mijn voortdurende en uitgebreide berichtgeving over deze zaken met betrekking tot schadelijke AI en de opkomst van de roep om AI Ethics en Ethical AI, zie de link hier en de link hier, om er een paar te noemen.

Dus we hebben deze zure drijfveren verborgen in het schijnbaar rooskleurige AI-gebruik door bedrijven:

  • Holle beweringen over het gebruik van AI terwijl er in feite geen AI of onbeduidende AI-infusie is
  • Valse beweringen over AI-gebruik die opzettelijk zijn bedacht om te misleiden
  • Onbedoelde opname van AI die ongepaste vooroordelen blijkt te bevatten en discriminerend is
  • Doelbewust gevormde AI om slechte vooroordelen en verachtelijke discriminerende acties te verspreiden
  • Overige

Hoe ontstaan ​​dit soort ondoordachte of schandelijke praktijken in bedrijven?

Een opmerkelijk stukje van de puzzel is een gebrek aan AI-ethiekbewustzijn.

Topmanagers zijn zich misschien niet bewust van het idee om AI te ontwerpen die zich houdt aan een reeks ethische AI-regels. De AI-ontwikkelaars in zo'n bedrijf zijn zich misschien enigszins bewust van de zaak, hoewel ze misschien alleen bekend zijn met AI Ethics-theorieën en niet weten hoe ze de kloof in de dagelijkse AI-ontwikkelingsinspanningen moeten overbruggen. Er is ook de omstandigheid van AI-ontwikkelaars die AI Ethics willen omarmen, maar dan een sterke push krijgen wanneer managers en leidinggevenden denken dat dit hun AI-projecten zal vertragen en de kosten van het bedenken van AI zal opdrijven.

Veel topmanagers realiseren zich niet dat een gebrek aan naleving van AI-ethiek hen en het bedrijf waarschijnlijk in hun achterste zal schoppen bij de release van AI, die vol staat met netelige en totaal lelijke problemen. Een bedrijf kan betrapt worden met slechte AI in zijn midden, die vervolgens de anders zo lang opgebouwde reputatie van het bedrijf jammerlijk ondermijnt (reputatie risico). Klanten kunnen ervoor kiezen om de producten en diensten van het bedrijf niet langer te gebruiken (risico van klantverlies). Concurrenten kunnen profiteren van deze mislukking (concurrentierisico). En er staan ​​tal van advocaten klaar om degenen die zijn overtreden te helpen, met als doel forse rechtszaken aan te spannen tegen bedrijven die verrotte AI in hun bedrijfswaren hebben toegelaten (juridisch risico).

Kortom, de ROI (return on investment) voor een geschikt gebruik van AI-ethiek is vrijwel zeker gunstiger dan in vergelijking met de downstream-kosten die gepaard gaan met het zitten op een stank van slechte AI die niet had mogen worden bedacht of vrijgegeven.

Blijkt dat niet iedereen die memo heeft gekregen, om zo te zeggen.

AI-ethiek wint slechts geleidelijk aan terrein.

Sommigen zijn van mening dat onvermijdelijk de lange arm van de wet nodig is om de invoering van ethische AI-benaderingen verder te inspireren.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we onderscheidende wetten moeten hebben om verschillende ontwikkelingen en toepassingen van AI te regelen. Er worden inderdaad nieuwe wetten rondgestrooid op internationaal, federaal, staats- en lokaal niveau die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren is een afgemeten inspanning. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen zelfs van tevoren dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen. Zie bijvoorbeeld mijn dekking op de link hier en de link hier.

Laten we ervoor zorgen dat we allemaal op dezelfde lijn zitten over wat de basisprincipes van AI-ethiek inhouden.

In mijn column heb ik eerder verschillende collectieve analyses van AI Ethics-principes besproken, zoals deze beoordeling op de link hier, die een handige keystone-lijst biedt van ethische AI-criteria of kenmerken met betrekking tot AI-systemen:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI Ethics-begrippen. Er is een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Een manier om te proberen de aandacht voor het gebruik van AI Ethics-regels te introduceren en vast te houden, kan gedeeltelijk worden ondernomen door een AI Ethics-adviesraad op te richten.

We zullen hierna de facetten van de AI Ethics-adviesraad uitpakken.

AI-ethiekborden en hoe ze goed te doen

Bedrijven kunnen zich in verschillende stadia van AI-adoptie bevinden, en ook in verschillende stadia van het omarmen van AI-ethiek.

Stel je een bedrijf voor dat AI-ethiek wil omarmen, maar niet zeker weet hoe. Een ander scenario kan een bedrijf zijn dat al met AI Ethics bezig is, maar niet zeker lijkt te weten wat er moet gebeuren om de inspanning te bevorderen. Een derde scenario zou een bedrijf kunnen zijn dat actief bezig is met het bedenken en gebruiken van AI en intern veel heeft gedaan om AI-ethiek te belichamen, hoewel ze zich realiseren dat er een kans is dat ze andere inzichten mislopen, misschien door intern groepsdenken.

Voor elk van die scenario's kan het verstandig zijn om een ​​AI Ethics-adviesraad op te zetten.

Het idee is vrij eenvoudig (nou ja, om te verduidelijken, het algemene idee is het spreekwoordelijke topje van de ijsberg en de duivel zit zeker in de details, zoals we zo dadelijk zullen bespreken).

Een AI Ethics-adviesraad bestaat doorgaans uit voornamelijk externe adviseurs die worden gevraagd om zitting te nemen in een speciale adviesraad of commissie voor het bedrijf. Er kunnen ook enkele interne deelnemers in de raad van bestuur zijn, hoewel meestal het idee is om adviseurs van buiten het bedrijf te verzamelen en dat kan een semi-onafhankelijk perspectief bieden op wat het bedrijf doet.

Ik zeg semi-onafhankelijk omdat er ongetwijfeld een aantal potentiële onafhankelijkheidsconflicten zullen ontstaan ​​met de gekozen leden van de AI Ethics-adviesraad. Als het bedrijf de adviseurs betaalt, roept dit de voor de hand liggende vraag op of de betaalde leden zich afhankelijk voelen van het bedrijf voor een salaris of dat ze zich ongemakkelijk voelen bij het bekritiseren van het cadeaupaard dat ze in de hand hebben. Aan de andere kant zijn bedrijven gewend om voor allerlei weloverwogen onafhankelijke adviezen gebruik te maken van externe betaalde adviseurs, dus dit is toch enigszins gebruikelijk en verwacht.

De AI Ethics-adviesraad wordt gewoonlijk gevraagd om periodiek bijeen te komen, hetzij persoonlijk, hetzij virtueel op afstand. Ze worden door het bureau als klankbord gebruikt. De kans is groot dat de leden verschillende interne documenten, rapporten en memo's krijgen over de inspanningen die worden geleverd met betrekking tot AI bij het bedrijf. Bepaalde leden van de AI Ethics-adviesraad kan worden gevraagd om interne vergaderingen bij te wonen, afhankelijk van hun specifieke expertise. Enz.

Naast het kunnen zien wat er gaande is met AI binnen het bedrijf en frisse ogen kan bieden, heeft de AI Ethics-adviesraad meestal een dubbele rol als een leverancier van buiten naar binnen van het nieuwste op het gebied van AI en Ethische AI. Interne bronnen hebben misschien niet de tijd om zich te verdiepen in wat er buiten het bedrijf gebeurt en daarom kunnen de leden van de AI Ethics-adviesraad scherp gefocuste en op maat gemaakte state-of-the-art gezichtspunten krijgen.

Er is ook het gebruik van binnen naar buiten van een AI Ethics-adviesraad.

Dit kan lastig zijn.

Het concept is dat de AI Ethics-adviesraad wordt gebruikt om de buitenwereld te laten weten wat het bedrijf doet als het gaat om AI en AI-ethiek. Dit kan handig zijn om de reputatie van het bedrijf te versterken. De AI-geïnfuseerde producten en diensten kunnen als betrouwbaarder worden beschouwd vanwege het gouden zegel van goedkeuring van de AI Ethics-adviesraad. Bovendien kan de oproep aan het bedrijf om meer te doen aan ethische AI ​​enigszins worden afgezwakt door erop te wijzen dat het bedrijf al gebruik maakt van een AI Ethics-adviesraad.

Vragen die gewoonlijk aan een AI Ethics-adviesraad worden voorgelegd door het bedrijf dat een dergelijk mechanisme gebruikt, omvatten vaak:

  • Moet het bedrijf AI gebruiken voor een bepaald product of een bepaalde dienst, of lijkt dat overdreven verontrustend?
  • Houdt het bedrijf bij zijn AI-inspanningen rekening met alle aspecten van AI-ethiek?
  • Is het bedrijf in groepsdenken vervallen en is het niet bereid of niet in staat om potentieel verontrustende AI Ethics-ondergang te zien in afwachting van deze inspanningen?
  • Naar wat voor soort nieuwste benaderingen van AI-ethiek zou het bedrijf moeten streven?
  • Zou het haalbaar zijn om externe lof toe te juichen voor onze AI Ethics-inspanningen en de toewijding daaraan?
  • Overige

Het is zeker zinvol om gebruik te maken van een AI Ethics-adviesraad en bedrijven bewandelen steeds meer dit pad.

Houd er rekening mee dat deze medaille ook een andere kant heeft.

Aan de ene kant van de medaille kunnen AI Ethics-adviesraden de op één na beste zijn sinds gesneden brood. Verwaarloos de andere kant van de medaille niet, want ze kunnen ook een monumentale hoofdpijn zijn en je zou er spijt van kunnen krijgen dat je in dit gevaarlijke gebied bent beland (zoals je in deze discussie zult zien, kunnen de nadelen worden beheerd, als je weet wat je zijn aan het doen).

Bedrijven beginnen zich te realiseren dat ze zich een beetje in de problemen kunnen brengen wanneer ze ervoor kiezen om de AI Ethics-adviesraad te volgen. Je zou kunnen stellen dat deze machinale bewerking enigszins lijkt op spelen met vuur. Zie je, vuur is een zeer krachtig element dat je kunt gebruiken om maaltijden te koken, je te beschermen tegen roofdieren terwijl je in de wildernis bent, je warm te houden, licht voort te brengen en een hele reeks handige en essentiële voordelen te bieden.

Vuur kan je ook verbranden als je er niet goed mee om kunt gaan.

Er zijn recentelijk verschillende nieuwskoppen geweest die de potentiële gevaren van het hebben van een AI Ethics-adviesraad levendig aantonen. Als een lid summier besluit dat hij niet langer gelooft dat het bedrijf de juiste ethische AI-activiteiten uitvoert, kan het ontevreden lid in een enorme opwelling stoppen. Ervan uitgaande dat de persoon waarschijnlijk bekend is in het AI-veld of de industrie, zal hun springschip ongetwijfeld brede media-aandacht krijgen.

Een firma moet dan in de verdediging gaan.

Waarom is het lid weggegaan?

Wat is het bedrijf snode aan het doen?

Sommige bedrijven eisen dat de leden van de AI Ethics-adviesraad NDA's (geheimhoudingsovereenkomsten) ondertekenen, die het bedrijf schijnbaar zullen beschermen als het lid besluit om "schurkenstaten" te worden en het bedrijf te vernietigen. Het probleem is echter dat zelfs als de persoon relatief stil blijft, er toch een waarschijnlijke erkenning is dat ze niet langer lid zijn van de AI Ethics-adviesraad. Dit op zichzelf zal allerlei wenkbrauwverhogende vragen oproepen.

Bovendien, zelfs als er een NDA bestaat, zal het lid soms proberen de bepalingen te omzeilen. Dit kan inhouden dat er wordt verwezen naar niet nader genoemde generieke 'casestudy's' om AI Ethics anomalieën te benadrukken waarvan zij denken dat het bedrijf verraderlijk presteerde.

Het gevallen lid is misschien volledig brutaal en komt direct naar buiten om hun zorgen over het bedrijf te uiten. Of dit een duidelijke schending van de NDA is, is misschien iets minder cruciaal dan het feit dat het woord wordt verspreid over ethische AI-scrupules. Een bedrijf dat het lid probeert aan te klagen wegens schending van de NDA, kan zichzelf brutaal heet water op de hals halen, extra aandacht voor het geschil en het klassieke David versus Goliath-duel lijken te zijn (de firma is het grote "monster").

Sommige topmanagers gaan ervan uit dat ze eenvoudig een financiële regeling kunnen treffen met elk lid van de AI Ethics-adviesraad die vindt dat het bedrijf de verkeerde dingen doet, waaronder het negeren of bagatelliseren van geuite zorgen.

Dit is misschien niet zo eenvoudig als men aanneemt.

Vaak zijn de leden vroom ethisch ingesteld en zullen ze niet snel terugdeinzen voor wat zij beschouwen als een ethische strijd tussen goed en kwaad. Ze kunnen ook anderszins financieel stabiel zijn en niet bereid om hun ethische voorschriften te scheren of ze kunnen een andere baan hebben die onaangetast blijft door het verlaten van de AI Ethics-adviesraad.

Zoals duidelijk zal zijn, realiseren sommigen zich later dat een AI Ethics-adviesraad een tweesnijdend zwaard is. Er is een enorme waarde en belangrijk inzicht dat zo'n groep kan overbrengen. Tegelijkertijd speel je met vuur. Het kan zijn dat een lid of leden besluiten dat ze niet langer geloven dat het bedrijf geloofwaardig ethisch AI-werk verricht. In het nieuws zijn er aanwijzingen geweest dat soms een hele AI Ethics-adviesraad samen opstapt, in één keer, of een overwicht heeft van de leden die aankondigen dat ze vertrekken.

Wees voorbereid op het goede en de problemen die kunnen ontstaan ​​met AI Ethics adviesraden.

Natuurlijk zijn er momenten dat bedrijven in feite niet de juiste dingen doen als het gaat om AI-ethiek.

Daarom hopen en verwachten we dat een AI Ethics-adviesraad bij dat bedrijf zou optreden om dit bekend te maken, vermoedelijk eerst intern binnen het bedrijf. Als het bedrijf doorgaat op het waargenomen slechte pad, lijken de leden zeker ethisch gebonden (mogelijk ook juridisch) om andere actie te ondernemen die zij passend achten (leden dienen hun persoonlijke advocaat te raadplegen voor dergelijk juridisch advies). Het kan zijn dat dit de enige manier is om het bedrijf ertoe te brengen zijn werkwijze te veranderen. Een drastische actie van een lid of een groep leden lijkt misschien het laatste redmiddel waarvan de leden hopen dat het het tij zal keren. Bovendien willen die leden waarschijnlijk geen deel uitmaken van iets waarvan ze vurig geloven dat het is afgedwaald van AI-ethiek.

Een handige manier om deze mogelijkheden te overwegen is deze:

  • Het bedrijf dwaalt af, lid kiest ervoor om te vertrekken vanwege een waargenomen gebrek aan naleving van het bedrijf
  • Het bedrijf dwaalt niet af, maar het lid gelooft dat het bedrijf dat wel is en verlaat het bedrijf vanwege een waargenomen gebrek aan naleving

De buitenwereld zal niet per se weten of het lid dat vertrekt een bonafide basis heeft voor bezorgdheid over het bedrijf of dat het een idiosyncratische of verkeerde indruk van het lid is. Er is ook de vrij eenvoudige mogelijkheid dat een lid de groep verlaat vanwege andere verplichtingen of om persoonlijke redenen die niets te maken hebben met wat het bedrijf doet.

De essentie is dat het voor elk bedrijf dat een AI Ethics-adviesraad aanneemt belangrijk is om aandachtig na te denken over het hele scala van levenscyclusfasen die met de groep samenhangen.

Met al dat gepraat over problematische aspecten, wil ik niet de indruk wekken dat ik geen adviesraad voor AI Ethics heb. Dat is niet de boodschap. De echte essentie is om een ​​AI Ethics-adviesraad te hebben en ervoor te zorgen dat u dit op de juiste manier doet. Maak dat tot je geliefde mantra.

Hier zijn enkele van de vaak genoemde voordelen van een AI Ethics-adviesraad:

  • Een middel bij de hand hebben om AI-projecten en ideeën van een semi-onafhankelijke privégroep te laten stuiteren
  • Maak gebruik van expertise in AI-ethiek die van buiten het bedrijf komt
  • Streef ernaar AI Ethics-gelach en regelrechte rampen door het bedrijf te vermijden
  • Wees een public relations-booster voor het bedrijf en zijn AI-systemen
  • Doorbraak van intern groepsdenken over AI en AI-ethiek
  • Krijg een frisse kijk op AI-innovaties en hun bruikbaarheid
  • Verbeter de status en status van het bedrijf
  • Dienen als een ongebreidelde stem voor wanneer de AI-inspanningen van het bedrijf goed zijn
  • Overige

Dit zijn veelvoorkomende manieren waarop bedrijven hun AI Ethics-adviesraad verknoeien en ondermijnen (doe dit niet!):

  • Geef vage en verwarrende aanwijzingen over missie en doel
  • Slechts spaarzaam geraadpleegd en vaak slecht getimed nadat het paard al uit de stal is
  • In het donker bewaard
  • Fed zwaar gefilterde informatie die een misleidend beeld geeft van dingen
  • Uitsluitend gebruikt als etalage en voor geen enkel ander waardeproducerend doel
  • Het is niet toegestaan ​​om enige schijn van verkenning te doen over interne zaken
  • Verstoken van voldoende middelen om hun werk voldoende uit te voeren
  • Gebrek aan expliciet leiderschap binnen de groep
  • Gebrek aan aandacht van de leiding van het bedrijf met betrekking tot de groep
  • Verwacht blinde goedkeuring te geven aan wat wordt gepresenteerd
  • Toevallig wat betreft de gekozen leden
  • Behandeld met weinig respect en schijnbaar slechts een vinkje
  • Overige

Een ander vaak verwarrend probleem betreft de aard en het gedrag van de verschillende leden die zitting hebben in een AI Ethics-adviesraad, wat op de volgende manieren soms problematisch kan zijn:

  • Sommige leden zijn misschien alleen AI Ethics-conceptualizers in plaats van bedreven in AI Ethics als praktijk en bieden als zodanig minimalistische zakelijke inzichten
  • Sommige kunnen bombastisch zijn als het gaat om AI-ethiek en zijn buitengewoon moeilijk om mee om te gaan tijdens hun deelname
  • Machtsstrijd kan een significante afleider worden, vaak botsingen van grote ego's, en de groep doen verworden tot disfunctioneel
  • Sommigen zijn misschien te druk en te toegewijd, zodat ze zich afzijdig houden van de AI Ethics-adviseringsinspanningen
  • Sommigen hebben een diepgewortelde onwrikbare mening over AI-ethiek die onbuigzaam en onrealistisch is
  • Sommige zijn gevoelig voor emotionele in plaats van analytische en systemische overwegingen die ten grondslag liggen aan AI-ethiek
  • Kan verwant zijn aan het beroemde adagium om als een kudde katten te zijn die zich niet concentreren en doelloos ronddwalen
  • Overige

Sommige bedrijven lijken gewoon een adviesraad voor AI Ethics bij elkaar te gooien op een enigszins moedwillige basis. Er wordt niet nagedacht over de te selecteren leden. Er wordt niet nagedacht over wat ze allemaal naar de tafel brengen. Er wordt niet nagedacht over de frequentie van vergaderingen en hoe de vergaderingen moeten worden gehouden. Er wordt niet nagedacht over het runnen van de AI Ethics-adviesraad, alles bij elkaar genomen. Enz.

In zekere zin breng je door je eigen gebrek aan vindingrijkheid waarschijnlijk een treinwrak in beweging.

Doe dat niet.

Misschien is deze lijst van de juiste dingen om te doen is nu ogenschijnlijk duidelijk voor u op basis van het discours tot nu toe, maar u zou misschien geschokt zijn te weten dat maar weinig bedrijven dit goed lijken te begrijpen:

  • Geef expliciet de missie en het doel van de AI Ethics-adviesraad aan
  • Zorg ervoor dat de groep de juiste aandacht krijgt op topniveau
  • Identificeer het type leden dat het meest geschikt is voor de groep
  • Benader de gewenste leden en ga na of ze passen bij de groep
  • Maak passende afspraken met de gekozen leden
  • Vaststellen van de logistiek van vergaderingen, frequentie, etc.
  • Bepaal taken van de leden, reikwijdte en diepgang
  • Anticipeer op de interne middelen die nodig zijn om de groep te helpen
  • Wijs voldoende middelen toe aan de groep zelf
  • Houd de AI Ethics-adviesraad actief en blijf op de hoogte
  • Heb vooraf escalaties gepland voor wanneer zich zorgen voordoen
  • Geef aan hoe met noodsituaties of crisisgerelateerde voorvallen wordt omgegaan
  • Draai leden naar buiten of naar binnen om de mix geschikt te houden
  • Vooraf hebben geanticipeerd op exit-paden voor leden
  • Overige

Conclusie

Een paar jaar geleden werden veel van de autofabrikanten en zelfrijdende technologiebedrijven die beginnen met het ontwerpen van op AI gebaseerde zelfrijdende auto's plotseling tot actie aangezet om AI Ethics-adviesraden te adopteren. Tot op dat moment leek men zich weinig bewust te zijn van het hebben van zo'n groep. Aangenomen werd dat de interne focus op Ethical AI voldoende zou zijn.

Ik heb in mijn column uitgebreid gesproken over de verschillende ongelukkige AI-ethiekfouten of vergissingen die soms hebben geleid tot problemen met zelfrijdende auto's, zoals kleine voertuigongevallen, openlijke auto-botsingen en andere calamiteiten, zie mijn bericht op de link hier. Het belang van AI-veiligheid en soortgelijke bescherming moet de belangrijkste overweging zijn voor degenen die autonome voertuigen maken. AI Ethics-adviesraden in deze niche helpen AI-veiligheid een essentiële topprioriteit te houden.

Mijn favoriete manier om dit soort onthullingen over AI-ethiek uit te drukken, is door de zaak te vergelijken met aardbevingen.

Californiërs zijn van tijd tot tijd onderhevig aan aardbevingen, soms behoorlijk heftig. Je zou kunnen denken dat het een altijd aanwezige overweging zou zijn om voorbereid te zijn op aardbevingen. Niet zo. De cyclus werkt op deze manier. Er vindt een substantiële aardbeving plaats en mensen worden eraan herinnerd dat ze voorbereid zijn op aardbevingen. Voor een korte tijd is er haast om dergelijke voorbereidingen te treffen. Na een tijdje verslapt de aandacht hiervoor. De voorbereidingen vallen buiten de boot of worden anderszins verwaarloosd. Boem, er is weer een aardbeving, en al degenen die voorbereid hadden moeten zijn, worden "onbewust" betrapt alsof ze zich niet hadden gerealiseerd dat er op een dag een aardbeving zou kunnen plaatsvinden.

Bedrijven doen vaak ongeveer hetzelfde met AI Ethics-adviesraden.

Ze beginnen er niet een en dan plotseling, bij een catastrofe over hun AI, worden ze reactief tot actie aangespoord. Ze starten fragiel een AI Ethics-adviesraad. Het heeft veel van de problemen die ik hier eerder heb aangehaald. De adviesraad AI Ethics valt uit elkaar. Oeps, een nieuwe AI-calamiteit binnen het bedrijf wekt de behoefte aan de AI Ethics-adviesraad opnieuw.

Was, spoel en herhaal.

Bedrijven merken zeker dat ze soms een haat-liefdeverhouding hebben met de inspanningen van hun AI Ethics-adviesraad. Als het erop aankomt de dingen op de juiste manier te doen, hangt er liefde in de lucht. Als het erop aankomt dingen op de verkeerde manier te doen, komt er woest haat naar voren. Zorg ervoor dat je doet wat nodig is om de liefde gaande te houden en de haat af te wenden als het gaat om het opzetten en onderhouden van een AI Ethics-adviesraad.

Laten we dit veranderen in een liefde-liefde relatie.

Bron: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/