AI-ethiek en de zoektocht naar zelfbewustzijn in AI

Ben je zelfbewust?

Ik durf te wedden dat je gelooft dat je dat bent.

Het punt is dat, zo wordt aangenomen, maar weinigen van ons bijzonder zelfbewust zijn. Er is een bereik of mate van zelfbewustzijn en we beweren allemaal dat we verschillen in hoe scherpzinnig zelfbewustzijn we zijn. Je zou kunnen denken dat je volledig zelfbewust bent en slechts marginaal. Je bent misschien weinig zelfbewust en realiseert je dat dit je mentale toestand is.

Ondertussen, aan het bovenste deel van het spectrum, zou je kunnen geloven dat je volledig zelfbewust bent en inderdaad, eerlijk gezegd, ongeveer net zo zelfbewust als ze komen. Goed voor je.

Daarover gesproken, wat voor nut heeft het om buitengewoon zelfbewust te zijn?

Volgens onderzoek gepubliceerd in de Harvard Business Review (HBR) door Tasha Eurich, bent u naar verluidt in staat om betere beslissingen te nemen, hebt u meer vertrouwen in uw beslissingen, bent u sterker in uw communicatieve capaciteiten en bent u in het algemeen effectiever (per artikel getiteld "What Self-Awareness Really Is (and How om het te cultiveren).' De bonusfactor is dat mensen met een schril zelfbewustzijn minder geneigd zijn om te bedriegen, stelen of liegen. streven om een ​​beter mens te zijn en je medemens te verfraaien.

Al dit gepraat over zelfbewustzijn roept een enigszins voor de hand liggende vraag op, namelijk, wat betekent de uitdrukking zelfbewustzijn eigenlijk. Je kunt gemakkelijk tal van verschillende definities en interpretaties over het complex vinden en laten we zeggen een papperige constructie die inhoudt dat je jezelf bewust bent. Sommigen zouden de zaken vereenvoudigen door te suggereren dat zelfbewustzijn bestaat uit het in de gaten houden van je eigen zelf, weten wat je van plan bent. Je bent je scherp bewust van je eigen gedachten en handelingen.

Vermoedelijk zou een persoon, wanneer hij zich niet bewust is, niet beseffen wat hij doet, en ook niet waarom, en ook niet op de hoogte zijn van wat andere mensen over hem te zeggen hebben. Ik weet zeker dat je mensen hebt ontmoet die zo zijn.

Sommige mensen lijken over deze aarde te lopen zonder een idee te hebben van wat ze zelf aan het doen zijn, en ze hebben ook geen schijn van wat anderen over hen zeggen. Ik denk dat je zou kunnen beweren dat ze zijn als een hoofd naar beneden aanvallende stier in een delicate breekbare boetiek. We zijn gewoonlijk geneigd te geloven dat de stier niet weet wat hij doet en zich niet bewust blijft van de standpunten van anderen, tenzij die anderen proberen het onwetende schepsel fysiek te manoeuvreren of bijeen te houden.

Er wordt gezegd dat zelfbewustzijn enigszins recursief kan zijn.

Laat me een voorbeeld schetsen om deze recursie te illustreren. Je bent bezig met het bekijken van een behoorlijk boeiende kattenvideo op je smartphone (iedereen doet dit, zo lijkt het). Sommige mensen zouden geen andere ogenschijnlijke gedachten hebben dan de wonderbaarlijke hartverwarmende capriolen van die lieve katten. Ondertussen weet iedereen met een beetje zelfbewustzijn dat ze naar een kattenvideo kijken. Ze zijn zich er misschien ook van bewust dat anderen om hen heen merken dat ze naar een kattenvideo kijken.

Merk op dat je zelfbewust kunt zijn en toch ondergedompeld kunt zijn in een, laten we zeggen, een bepaalde primaire activiteit. De primaire activiteit in dit geval is het bekijken van de kattenvideo. Secundair, en tegelijkertijd, kun je de gedachte met je meedragen dat je in feite naar een kattenvideo kijkt. Je bent ook in staat om de gedachte met je mee te dragen dat anderen je observeren terwijl je naar de heel vermakelijke kattenvideo kijkt. Je hoeft niet per se één activiteit te stoppen, zoals stoppen met het kijken naar de kattenvideo, om vervolgens afzonderlijk te overwegen dat je aan het kijken bent (of net aan het kijken was) naar een kattenvideo. Die gedachten kunnen schijnbaar parallel aan elkaar voorkomen.

Soms kan ons zelfbewustzijn ons echter uit een primaire mentale activiteit schoppen of op zijn minst onderbreken. Misschien, terwijl je nadenkt over het bekijken van de kattenvideo, raakt je geest gedeeltelijk uit omdat het overbelast is om je alleen op de video zelf te concentreren. Je kiest ervoor om de video vervolgens terug te spoelen om het gedeelte opnieuw te bekijken dat je een beetje hebt gezien, maar dat je mentaal werd afgeleid om het volledig te begrijpen. Zelfbewustzijn verstoorde je primaire mentale activiteit.

Oké, we zijn nu klaar om de recursieve aspecten te laten ontstaan.

Ben je klaar?

Je kijkt naar een kattenvideo. Je zelfbewustzijn laat je weten dat je naar een kattenvideo kijkt en dat anderen naar jou kijken terwijl jij naar de video kijkt. Dat is de status-quo.

Vervolgens maak je een extra mentale sprong. Je begint na te denken over je zelfbewustzijn. Je bent je ervan bewust dat je bezig bent met je zelfbewustzijn. Hier is hoe dat gaat: denk ik te veel na over mijn kijken naar de kattenvideo, vraag je jezelf wanhopig af? Dit is een andere laag van zelfbewustzijn. Zelfbewustzijn ranking bovenop ander zelfbewustzijn.

Er is een oud gezegde dat het helemaal schildpadden zijn. Voor de verschijnselen van zelfbewustzijn zou je kunnen zijn:

  • Niet bewust van jezelf
  • Zelfbewust van jezelf
  • Zelfbewust van je zelfbewustzijn van jezelf
  • Zelfbewust van je zelfbewust zijn van je zelfbewustzijn van jezelf
  • Ad Infinitum (dwz, enzovoort)

Je hebt je misschien gerealiseerd dat ik er eerder subtiel op wees dat er twee belangrijke categorieën van zelfbewustzijn lijken te zijn. Een bepaalde theorie stelt dat we een soort intern zelfbewustzijn hebben dat zich richt op onze interne toestanden, en we hebben ook een extern zelfbewustzijn dat helpt bij het peilen van de percepties over ons van degenen om ons heen die ons bekijken.

Volgens het HBR-artikel is hier een snelle weergave van de theoretische twee soorten zelfbewustzijn: "De eerste, die we noemden intern zelfbewustzijn, geeft aan hoe duidelijk we onze eigen waarden, passies, ambities zien, passen bij onze omgeving, reacties (inclusief gedachten, gevoelens, gedrag, sterke en zwakke punten) en impact op anderen. En ondertussen is de andere: “De tweede categorie, extern zelfbewustzijn, betekent begrijpen hoe andere mensen ons zien, in termen van dezelfde hierboven genoemde factoren. Ons onderzoek laat zien dat mensen die weten hoe anderen hen zien, beter zijn in het tonen van empathie en het innemen van andermans perspectieven.”

Een handige twee-bij-twee-matrix of vierkant kan worden afgeleid door te beweren dat zowel het interne als het externe zelfbewustzijn van hoog naar laag loopt, en je kunt de twee categorieën tegen elkaar vergelijken. Uit het HBR-onderzoek blijkt dat jij één van deze vier zelfbewustzijn-archetypen zou zijn:

  • Introspector: laag extern zelfbewustzijn + hoog intern zelfbewustzijn
  • Zoeker: laag extern zelfbewustzijn + laag intern zelfbewustzijn
  • Pleaser: hoog extern zelfbewustzijn + laag intern zelfbewustzijn
  • Bewust: hoog extern zelfbewustzijn + hoog intern zelfbewustzijn

Het toppunt zou het "Bewuste" archetype zijn dat bestaat uit het aan de top staan ​​van extern zelfbewustzijn en eveneens aan de top van intern zelfbewustzijn. Ter verduidelijking, je bereikt deze geroemde houding niet op een noodzakelijkerwijs permanente manier. Je kunt heen en weer glijden tussen hoog en laag zijn, zowel tussen de interne als externe zelfbewustzijnsgebieden. Het kan afhangen van het tijdstip van de dag, de situatie waarin u zich bevindt en een hele reeks andere opvallende factoren.

Nu we minzaam enkele fundamentele elementen over zelfbewustzijn hebben behandeld, kunnen we proberen dit te koppelen aan het onderwerp ethisch gedrag.

De gebruikelijke bewering over zelfbewust zijn is dat je meer kans hebt om overdreven te zijn als je zelfbewust bent. Dit betekent, zoals al aangegeven, dat u minder vatbaar bent voor ongewenst ethisch gedrag zoals stelen, bedriegen en liegen. De reden voor deze neiging is dat de activiteit van je zelfbewustzijn je zou doen beseffen dat je eigen gedrag onsmakelijk of onethisch is. Je betrapt jezelf niet alleen als je in modderige onethische wateren duikt, maar je bent ook geneigd om jezelf als het ware terug te sturen naar het droge (de heiligheid van ethisch territorium).

Je zelfbewustzijn helpt je bij het oefenen van zelfbeheersing.

Een contrast zou vermoedelijk zijn wanneer er weinig of geen zelfbewustzijn is, wat suggereert dat iemand zich misschien niet bewust is van hun neiging tot onethisch gedrag. Je zou kunnen beweren dat zo'n onbewust persoon zich misschien niet realiseert dat hij slecht presteert. Net als de stier in de breekbare winkel, is het onwaarschijnlijk dat ze zichzelf zullen reguleren totdat iets meer openlijk hun aandacht trekt.

Niet iedereen trapt hier overigens in. Sommigen zouden beweren dat zelfbewustzijn net zo gemakkelijk kan worden toegepast op onethisch zijn als op ethisch zijn. Een boosdoener kan bijvoorbeeld volledig zelfbewust zijn en ervan genieten dat hij het kwaaddoen begaat. Hun zelfbewustzijn drijft hen zelfs nog harder in de richting van grotere en grotere daden van snode wangedrag.

Hierop is meer bewolking dan op het eerste gezicht lijkt. Stel dat iemand zich scherp van zichzelf bewust is, maar zich niet bewust is van de ethische mores van een bepaalde samenleving of cultuur. Op die manier hebben ze geen ethische begeleiding, ondanks het feit dat ze zelfbewust zijn. Of, zo u wilt, misschien kent de persoon de ethische voorschriften en gelooft hij niet dat ze op hen van toepassing zijn. Ze beschouwen zichzelf als uniek of buiten de grenzen van conventioneel ethisch denken.

Rond en rond gaat het.

Zelfbewustzijn zou kunnen worden opgevat als een tweesnijdend, ethisch georiënteerd zwaard, zouden sommigen vurig benadrukken.

Laten we voor het moment gaan met de blije gezichtsversie die bestaat uit zelfbewustzijn dat ons in grote lijnen leidt of duwt in de richting van ethisch gedrag. Als al het andere gelijk is, zullen we de onbezonnen veronderstelling maken dat hoe meer zelfbewustzijn er is, hoe meer ethisch georiënteerd je zult zijn. Het lijkt me zeker leuk en inspirerend om dat te wensen.

Laten we een versnelling hoger schakelen en kunstmatige intelligentie (AI) in beeld brengen.

We bevinden ons op een kruispunt in deze discussie om alle voortschrijdende verwikkelingen te verbinden met het ontluikende rijk van ethische AI, ook algemeen bekend als de ethiek van AI. Voor mijn voortdurende en uitgebreide verslaggeving over AI-ethiek, zie: de link hier en de link hier, om er een paar te noemen.

Het begrip ethische AI ​​houdt in dat het gebied van ethiek en ethisch gedrag wordt verweven met de komst van AI. Je hebt zeker krantenkoppen gezien die alarmbellen hebben doen rinkelen over AI die vol staat met ongelijkheden en verschillende vooroordelen. Er zijn bijvoorbeeld zorgen dat op AI gebaseerde gezichtsherkenningssystemen soms raciale en genderdiscriminatie kunnen vertonen, meestal als gevolg van de manier waarop de onderliggende Machine Learning (ML) en Deep Learning (DL)-faciliteiten werden getraind en ingezet (zie mijn analyse Bij deze link hier).

Om te proberen te stoppen of op zijn minst de pell-mell rush in de richting van AI voor slecht, bestaande uit AI-systemen die ofwel onbedoeld of soms opzettelijk zijn gevormd om slecht te handelen, is er recentelijk een dringende noodzaak geweest om ethische voorschriften toe te passen op de ontwikkeling en het gebruik van AI. Het serieuze doel is om ethische richtlijnen te geven aan AI-ontwikkelaars, plus bedrijven die AI bouwen of toepassen, en bedrijven die afhankelijk zijn van AI-toepassingen. Als voorbeeld van de Ethische AI-principes die worden ontwikkeld en toegepast, zie mijn verslag op: de link hier.

Geef een reflectiemoment om over deze drie uiterst cruciale vragen na te denken:

  • Kunnen we AI-ontwikkelaars ertoe brengen om ethische AI-principes te omarmen en die richtlijnen daadwerkelijk te gebruiken?
  • Kunnen we bedrijven die AI maken of in de praktijk brengen hetzelfde laten doen?
  • Kunnen we ervoor zorgen dat degenen die AI gebruiken op dezelfde manier op de hoogte zijn van ethische AI-facetten?

Ik zou dit onbeschaamd zeggen, het is een hele opgave.

De sensatie van het maken van AI kan elk vermoeden van aandacht voor de ethiek van AI overmeesteren. Nou, niet alleen de spanning, maar geld verdienen is ook een integraal onderdeel van die vergelijking. Het zal je misschien verbazen te weten dat sommigen in het AI-rijk geneigd zijn te zeggen dat ze de ethische AI-'dingen' zullen aanpakken zodra ze hun AI-systemen de deur uit hebben gekregen. Dit is de typische technische mantra om ervoor te zorgen dat je snel faalt en vaak faalt totdat je het goed hebt (hopelijk krijg je het goed).

Natuurlijk laten degenen die ethisch dubieuze AI summier het grote publiek opdringen, het paard uit de stal. Hun verkondigde uitgestrekte idee is dat de AI voor slecht wordt gerepareerd nadat het in het dagelijks gebruik is geweest, wat nadelig is omdat het paard al moedwillig in het rond galoppeert. Er kan schade worden aangericht. Er is ook een verhoogde kans dat er niets wordt gerepareerd of aangepast terwijl de AI in gebruik is. Een veel voorkomend excuus is dat geklungel met de AI op dat moment het nog erger zou kunnen maken in termen van toch al onethische algoritmische besluitvorming (ADM) die volledig uit de lucht komt vallen.

Wat kan er gedaan worden om het nut en de vitaliteit te krijgen van het hebben van ethische AI ​​als een helder schijnend en leidend licht in de hoofden van degenen die AI bouwen, AI inzetten en AI gebruiken?

Antwoord: Zelfbewustzijn.

Ja, het idee is dat als mensen meer zelfbewust zouden zijn over hoe ze AI gebruiken of ermee omgaan, dit hun neiging zou kunnen vergroten om te willen dat ethische AI ​​de norm wordt. Hetzelfde kan gezegd worden over de AI-ontwikkelaars en de bedrijven die te maken hebben met AI-systemen. Als ze meer zelfbewust waren van wat ze doen, zouden ze misschien meer de ethiek van AI omarmen.

Een deel van de logica die al is bepaald, is dat zelfbewustzijn de neiging heeft om een ​​ethisch beter persoon te zijn en ook om af te wenden van een ethisch belabberd persoon. Als we dat uitgangspunt in stand kunnen houden, impliceert dit dat de AI-ontwikkelaars die meer geneigd zijn tot zelfbewustzijn, dus geneigd zullen zijn tot ethisch gedrag en daarom geneigd zijn om ethisch verantwoorde AI te produceren.

Is dat een brug te ver voor je?

Sommigen zouden zeggen dat de indirectheid een beetje veel is. De exorbitante keten van verbanden tussen zelfbewustzijn, ethisch deugdzaam zijn en het toepassen van ethische voorschriften op AI is misschien moeilijk te slikken. Een tegenargument is dat het geen kwaad kan om het te proberen.

Sceptici zouden zeggen dat een AI-ontwikkelaar misschien zelfbewust is en mogelijk meer ethisch ingesteld, maar ze zullen niet noodzakelijkerwijs de sprong wagen om dat mentale kamp toe te passen op de mores van ethische AI. Het antwoord op die scrupules is dat als we ethische AI-kwesties kunnen publiceren en populariseren, de anders schijnbaar zwakke verbinding duidelijker zal worden, verwacht en mogelijk de standaardmanier zal worden om dingen te doen als het gaat om het maken van AI.

Ik ga nu een draai aan deze saga toevoegen. De draai kan je hoofd doen tollen. Zorg ervoor dat u goed zit en voorbereid bent op wat ik ga aangeven.

Sommigen wijzen erop dat we ethische AI ​​rechtstreeks in de AI zelf zouden moeten inbouwen.

Je zou kunnen worden verbijsterd door die uitspraak. Laten we het uitpakken.

Een programmeur kan een AI-systeem maken en dit doen met zijn eigen programmeerbewustzijn om te proberen te voorkomen dat de AI vooroordelen en ongelijkheden belichaamt. In plaats van alleen maar door te ploegen met de programmering, waakt de ontwikkelaar over zijn eigen schouder om te vragen of de aanpak die ze ondernemen zal resulteren in de vereiste afwezigheid van nadelige elementen in de AI.

Geweldig, we hebben een AI-ontwikkelaar die voldoende zelfbewust lijkt te zijn, ethisch gedrag heeft geprobeerd te omarmen en het licht heeft gezien om ethische voorschriften op te nemen bij het maken van hun AI-systeem.

Scoor een overwinning voor ethische AI!

Allemaal goed en wel, maar hier is iets dat later kan blijken. De AI wordt ingezet en dagelijks in gebruik genomen. Een deel van de AI bevatte een onderdeel om 'on the fly' te kunnen 'leren'. Dit betekent dat de AI zichzelf kan aanpassen op basis van nieuwe data en andere aspecten van de oorspronkelijke programmering. Even terzijde, dit betekent niet dat de AI bewust is. We hebben geen bewuste AI. Negeer die stomme koppen die zeggen dat we dat doen. Niemand kan zeggen of we bewuste AI zullen hebben, en ook kan niemand voldoende voorspellen wanneer het zal gebeuren.

Terugkerend naar ons verhaal, de AI is doelbewust ontworpen om zichzelf onderweg te verbeteren. Best een handig idee. In plaats van dat programmeurs voortdurend verbeteringen moeten doorvoeren, laten ze het AI-programma dit zelf doen (wow, is dat jezelf uit je baan werken?).

Gedurende de tijd dat de AI zich stap voor stap aanpast, blijkt dat er door zijn eigen veranderingshandelingen verschillende smerige ongelijkheden en vooroordelen het AI-systeem binnensluipen. Waar de programmeur die louche aspecten oorspronkelijk weghield, zijn ze nu aan het formuleren vanwege de AI die on-the-fly aanpast. Helaas kan dit achter de schermen zo subtiel gebeuren dat niemand er wijzer van wordt. Degenen die eerder groen licht hadden gegeven aan de AI na de eerste uitgebreide tests, zijn zich er nu blindelings van bewust dat de AI het verrotte pad van AI voor slecht.

Een manier om deze ongewenste opkomst te voorkomen of op zijn minst op te vangen, zou zijn om in de AI een soort Ethische AI-dubbelchecker in te bouwen. Een component binnen de AI is geprogrammeerd om het gedrag van de AI te observeren en te detecteren of er onethische ADM begint te ontstaan. Als dat het geval is, kan het onderdeel een waarschuwing sturen naar de AI-ontwikkelaars of naar een bedrijf dat het AI-systeem beheert.

Een meer geavanceerde versie van dit onderdeel kan proberen de AI te repareren. Dit zou een bijstelling van de aanpassingen zijn, waarbij de onethisch voortkomende aspecten terug worden omgezet in de juiste ethische parameters. Je kunt je voorstellen dat dit soort programmeren lastig is. Er is een kans dat het op een dwaalspoor raakt en mogelijk onethisch in diep onethisch verandert. Er is ook de mogelijkheid dat een fout-positief het onderdeel in actie brengt en de boel dienovereenkomstig verpest.

Hoe dan ook, zonder te verzanden in hoe deze dubbelchecker zou werken, gaan we er een gedurfde verklaring over afleggen. Je zou kunnen stellen dat de AI op een beperkte manier zelfbewust zou zijn.

Yikes, dat zijn vechtwoorden voor velen.

De heersende overtuiging van bijna iedereen is dat de huidige AI niet zelfbewust is. Punt uit, punt. Totdat we bewuste AI bereiken, waarvan we niet weten of en wanneer dat zal gebeuren, is er geen enkele vorm van AI die zelfbewust is. Niet in de laatste plaats in de zin van mensgericht zelfbewustzijn. Suggereer niet eens dat het kan gebeuren.

Ik ben het er zeker mee eens dat we voorzichtig moeten zijn met het antropomorfiseren van AI. Ik zal zo meteen meer zeggen over die bezorgdheid.

Ondertussen, als je ter wille van de discussie bereid bent om de fasering "zelfbewust" op een losjes-goosey manier te gebruiken, denk ik dat je gemakkelijk kunt zien waarom de AI zou kunnen worden gezegd dat het zich houdt aan het algemene idee van zelf- bewustzijn. We hebben een deel van de AI dat de rest van de AI in de gaten houdt en in de gaten houdt wat de rest van de AI aan het doen is. Wanneer de rest van de AI overboord begint te gaan, probeert het bewakingsgedeelte dit te detecteren. Bovendien kan het AI-bewakingsgedeelte of de dubbele checker de rest van de AI terug in de juiste rijstroken sturen.

Lijkt dat niet een beetje op het kijken naar die kattenvideo's en het zelfbewustzijn hebben dat je dat deed?

Het heeft een bekende klank.

We kunnen dit nog verder uitbreiden. De AI double-checker component is niet alleen geprogrammeerd om het gedrag van de rest van de AI te observeren, maar neemt ook het gedrag waar van degenen die de AI gebruiken. Hoe doen de gebruikers het bij het gebruik van de AI? Stel dat sommige gebruikers hun verontwaardiging uiten dat de AI hen lijkt te discrimineren. De AI-dubbelchecker kan dit misschien oppikken en het gebruiken als een nieuwe rode vlag over de rest van de AI die op een dwaalspoor gaat.

Dit brengt het interne zelfbewustzijn en de externe zelfbewustzijn categorisaties naar voren.

De AI-dubbelchecker scant intern en extern om erachter te komen of de rest van de AI in verontrustende zeeën is beland. De detectie zal een vlag opsteken of een zelfcorrectie veroorzaken.

Laten we nog een enigszins verbijsterende extensie toevoegen. We bouwen nog een AI-dubbelchecker die bedoeld is om de kern-AI-dubbelchecker te controleren. Waarom? Stel dat de AI-dubbelchecker lijkt te haperen of zijn werk niet doet. De AI-double-checker van de double-checker zou deze storing proberen te detecteren en dienovereenkomstig de nodige actie ondernemen. Welkom bij de recursieve aard van zelfbewustzijn, zouden sommigen trots kunnen verklaren, zoals blijkt uit een computationeel AI-systeem.

Voor degenen onder jullie die hierover al op het puntje van hun stoel zitten, is de laatste opmerking voorlopig dat we zouden kunnen proberen te suggereren dat als je AI-systemen "zelfbewust" maakt, ze dan mogelijk aangetrokken zullen worden tot ethisch gedrag. Doen ze dit op een gevoelsmatige basis? Beslist, nee. Doen ze dit op een computationele basis? Ja, hoewel we duidelijk moeten zijn dat het niet van hetzelfde kaliber is als menselijk gedrag.

Als je je ongemakkelijk voelt dat het idee van zelfbewustzijn ten onrechte wordt vervormd om het in een rekenschema te laten passen, zijn je twijfels hierover goed opgemerkt. Of we een einde moeten maken aan de voortdurende AI-inspanningen die gebruikmaken van het idee, is een andere open vraag. Je zou overtuigend kunnen beweren dat het ons in ieder geval lijkt te leiden naar een beter resultaat van wat AI waarschijnlijk zal doen. We moeten echter onze ogen wijd open houden als dit plaatsvindt.

Denk dat we moeten zien hoe dit allemaal uitpakt. Kom hier over vijf jaar, tien jaar en vijftig jaar op terug en kijk of uw denken over de controversiële kwestie is veranderd.

Ik realiseer me dat dit een enigszins onstuimig onderzoek van het onderwerp is geweest en dat u misschien hunkert naar enkele dagelijkse voorbeelden. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over AI die een schijn van "zelfbewustzijn" heeft en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarvan de AI de auto volledig alleen bestuurt en dat er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, waarvan we nog niet eens weten of dit mogelijk zal zijn en hoe lang het duurt om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en AI met zogenaamd zelfbewustzijn

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik vertrouw erop dat dit een voldoende litanie van waarschuwingen biedt om ten grondslag te liggen aan wat ik ga vertellen.

We zijn nu klaar om een ​​diepe duik te nemen in zelfrijdende auto's en ethische AI-vragen die het wenkbrauwverhogende idee met zich meebrengen dat AI een soort van zelfbewustzijn heeft, als je wilt.

Laten we een eenvoudig duidelijk voorbeeld gebruiken. Een op AI gebaseerde zelfrijdende auto is onderweg in de straten van uw buurt en lijkt veilig te rijden. In het begin had je speciale aandacht voor elke keer dat je een glimp van de zelfrijdende auto op kon vangen. Het autonome voertuig viel op door zijn rek met elektronische sensoren, waaronder videocamera's, radareenheden, LIDAR-apparaten en dergelijke. Na vele weken van de zelfrijdende auto die door je gemeente toert, merk je er nu amper iets van. Het is wat jou betreft niet meer dan een auto op de toch al drukke openbare weg.

Voor het geval je denkt dat het onmogelijk of ongeloofwaardig is om vertrouwd te raken met het zien van zelfrijdende auto's, heb ik vaak geschreven over hoe de locaties die binnen het bereik van zelfrijdende auto-experimenten vallen, geleidelijk gewend zijn geraakt aan het zien van de opgeknapte voertuigen, zie mijn analyse op deze link hier. Veel van de lokale bevolking veranderden uiteindelijk van mond-gapend rapt gapen naar nu een uitgestrekte geeuw van verveling uitstoten om getuige te zijn van die meanderende zelfrijdende auto's.

Waarschijnlijk de belangrijkste reden op dit moment dat ze de autonome voertuigen opmerken, is vanwege de irritatie- en ergernisfactor. De by-the-book AI-rijsystemen zorgen ervoor dat de auto's zich houden aan alle snelheidslimieten en verkeersregels. Voor hectische menselijke chauffeurs in hun traditionele door mensen bestuurde auto's, raak je soms geïrriteerd als je vastzit achter de strikt gezagsgetrouwe, op AI gebaseerde zelfrijdende auto's.

Dat is iets waar we misschien allemaal, terecht of onterecht, aan moeten wennen.

Terug naar ons verhaal. Stel dat op een dag een zelfrijdende auto in uw dorp of stad een stopbord nadert en niet lijkt te vertragen. Hemel, het lijkt erop dat het AI-aandrijfsysteem de zelfrijdende auto vlak langs het stopbord laat ploegen. Stel je voor dat een voetganger of fietser ergens in de buurt was en overrompeld werd dat de zelfrijdende auto niet goed tot stilstand zou komen. Beschamend. Gevaarlijk!

En illegaal.

Laten we nu eens kijken naar een AI-component in het AI-aandrijfsysteem dat fungeert als een zelfbewuste dubbele checker.

We nemen even de tijd om in te gaan op de details van wat er gaande is in het AI-aandrijfsysteem. Blijkt dat de videocamera's die op het autonome voertuig waren gemonteerd, detecteerden wat misschien een stopbord leek te zijn, hoewel in dit geval een overgroeide boom het stopbord overvloedig verduistert. Het Machine Learning- en Deep Learning-systeem dat oorspronkelijk was getraind op stopborden, was ontworpen op patronen van voornamelijk volledige stopborden, over het algemeen ongebonden. Bij computationeel onderzoek van de videobeelden werd een lage waarschijnlijkheid toegekend dat er op die specifieke plek een stopbord bestond (als extra complicatie en verdere uitleg was dit een nieuw gepost stopbord dat niet verscheen op de eerder voorbereide digitale kaarten die de AI-aandrijfsysteem vertrouwde op).

Al met al heeft het AI-aandrijfsysteem rekenkundig bepaald om door te gaan alsof het stopteken niet bestond of mogelijk een ander soort teken dat misschien op een stopbord leek (dit kan gebeuren en gebeurt met enige frequentie).

Maar gelukkig hield de AI-zelfbewuste dubbelchecker de activiteiten van het AI-aandrijfsysteem in de gaten. Na computationele beoordeling van de gegevens en de beoordeling door de rest van de AI, koos dit onderdeel ervoor om de normale gang van zaken te negeren en in plaats daarvan gaf het het AI-aandrijfsysteem opdracht om tot een geschikte stop te komen.

Niemand raakte gewond en er heeft zich geen onrechtmatige daad voorgedaan.

Je zou kunnen zeggen dat de AI-zelfbewuste dubbelchecker handelde alsof het een ingebedde juridische agent was en probeerde ervoor te zorgen dat het AI-aandrijfsysteem zich aan de wet hield (in dit geval een stopbord). Veiligheid stond natuurlijk ook centraal.

Dat voorbeeld laat hopelijk zien hoe de bedachte AI-zelfbewuste dubbelchecker zou kunnen werken.

We kunnen vervolgens kort een meer prominent Ethisch AI-voorbeeld beschouwen dat illustreert hoe de zelfbewuste dubbele controle van AI een ethische AI-georiënteerde ingebedde functionaliteit kan bieden.

Ten eerste, als achtergrond, is een van de zorgen die zijn geuit over de komst van op AI gebaseerde zelfrijdende auto's dat ze uiteindelijk op een enigszins onbedoelde discriminerende manier kunnen worden gebruikt. Hier is hoe. Stel dat die zelfrijdende auto's zijn opgezet om te proberen hun inkomstenpotentieel te maximaliseren, wat beslist logisch is voor degenen die een vloot van zelfrijdende auto's hebben die beschikbaar zijn voor het delen van ritten. De vlooteigenaar zou een winstgevende operatie willen hebben.

Het kan zijn dat in een bepaalde stad of stad de rondzwervende zelfrijdende auto's geleidelijk bepaalde delen van de gemeenschap gaan bedienen en andere niet. Ze doen dit voor een doel om geld te verdienen, in die zin dat armere gebieden misschien niet zo inkomsten genereren als de rijkere delen van de plaats. Dit is geen expliciet streven om bepaalde gebieden te dienen en andere niet. In plaats daarvan ontstaat het organisch dat de AI van de zelfrijdende auto's rekenkundig "uitvindt" dat er meer geld te verdienen is door zich te concentreren op de geografisch beter betalende gebieden. Ik heb deze maatschappelijke ethische zorg besproken in mijn column, zoals at de link hier.

Stel dat we een AI-zelfbewuste dubbelchecker hebben toegevoegd aan de AI-aandrijfsystemen. Na een tijdje merkt de AI-component rekenkundig een patroon op van waar de zelfrijdende auto's rondzwerven. Met name in sommige gebieden, maar niet in andere. Op basis van gecodeerd te zijn met een aantal ethische AI-regels, begint de zelfbewuste dubbelchecker van AI de zelfrijdende auto's naar andere delen van de stad te leiden die anders werden verwaarloosd.

Dit illustreert de AI-zelfbewuste notie en doet dit in combinatie met het Ethical AI-element.

Nog een voorbeeld van zo'n voorbeeld zou inzicht kunnen geven dat deze ethische AI-overweging ook een behoorlijk ontnuchterende en ernstige gevolgen van leven of dood kan zijn.

Denk aan een nieuwsbericht over een recent auto-ongeluk. Naar verluidt kwam een ​​menselijke bestuurder op een druk kruispunt aan en kreeg groen licht om rechtdoor te rijden. Een andere bestuurder kwam brullend langs een rood licht en ging de kruising op terwijl ze dat niet hadden moeten doen. De bestuurder met groen licht realiseerde zich op het laatste moment dat deze andere auto zijn auto flink zou gaan rammen.

Volgens deze in gevaar verkerende bestuurder had hij bedachtzaam berekend dat hij ofwel zou worden aangereden door de andere auto, of dat hij zou kunnen uitwijken om te proberen de indringer te ontwijken. Het probleem met uitwijken was dat er voetgangers in de buurt waren die gevaar zouden lopen.

Welke keuze zou jij maken?

Je kunt je voorbereiden om geraakt te worden en hopen dat de schade je niet zal verminken of doden. Aan de andere kant kun je radicaal wegdraaien, maar voetgangers in de buurt ernstig in gevaar brengen en mogelijk schaden of doden. Dit is een moeilijk probleem, dat moreel oordeel omvat en volledig doordrenkt is van ethische (en juridische) implicaties.

Er is een algemeen ethisch dilemma dat dit soort dilemma dekt, beroemd of misschien berucht het Trolley-probleem genoemd, zie mijn uitgebreide berichtgeving op deze link hier. Het blijkt een ethisch stimulerend gedachte-experiment te zijn dat teruggaat tot het begin van de twintigste eeuw. Als zodanig bestaat het onderwerp al een tijdje en meer recentelijk wordt het algemeen geassocieerd met de komst van AI en zelfrijdende auto's.

Vervang de menselijke bestuurder door een AI-aandrijfsysteem ingebed in een zelfrijdende auto.

Stel je dan voor dat een zelfrijdende AI-auto een kruispunt oprijdt en de sensoren van het autonome voertuig plotseling een door een mens bestuurde auto detecteren die gevaarlijk direct door een rood licht komt en gericht is op de zelfrijdende auto. Stel dat de zelfrijdende auto enkele passagiers in het voertuig heeft.

Wat wil je dat de AI doet?

Mocht het AI-aandrijfsysteem ervoor kiezen om door te gaan en erin te worden geploegd (waarschijnlijk de passagiers in het voertuig schade toebrengen of misschien doden), of wilt u dat het AI-aandrijfsysteem een ​​kans neemt en wegdraait, hoewel de zwenkende actie het autonome voertuig kost gevaarlijk in de richting van voetgangers in de buurt en hen zou kunnen verwonden of doden.

Veel van de AI-makers van zelfrijdende auto's nemen een kop-in-het-zand-benadering van deze ethische AI-schroeiende hachelijke situaties. Over het algemeen zou de AI zoals momenteel geprogrammeerd gewoon vooruit ploegen en met geweld worden geramd door de andere auto. De AI was niet geprogrammeerd om naar andere ontwijkende manoeuvres te zoeken.

Ik heb herhaaldelijk voorspeld dat deze zie-geen-kwaad-hoor-niet-kwaad-houding van de AI-fabrikanten van zelfrijdende auto's uiteindelijk zal komen en ze zal bijten (mijn analyse is op de link hier). Je kunt rechtszaken verwachten met betrekking tot dergelijke auto-ongelukken die zullen proberen uit te zoeken waarvoor de AI is geprogrammeerd. Was het bedrijf of de AI-ontwikkelaars of wagenparkbeheerder die de AI hebben ontwikkeld en behandeld nalatig of aansprakelijk voor wat de AI wel of niet heeft gedaan? Je kunt ook anticiperen op een ethisch AI-bewustzijn dat een publieke vuurstorm zal brouwen zodra dit soort gevallen zich voordoen.

In dit ethische AI-dilemma stapt onze geroemde AI-zelfbewuste dubbelchecker die ethisch georiënteerd is. Misschien kan deze speciale AI-component zich in dit soort omstandigheden bezighouden. Het deel bewaakt de rest van het AI-aandrijfsysteem en de status van de zelfrijdende auto. Wanneer zich een nijpend moment als dit voordoet, dient de AI-component als een Trolley-probleemoplosser en biedt hij aan wat het AI-aandrijfsysteem zou moeten doen.

Het is niet eenvoudig om te coderen, dat verzeker ik je.

Conclusie

Ik deel met jullie de laatste gedachte voor nu over dit onderwerp.

Je zult het waarschijnlijk intrigerend vinden.

Kent u de spiegeltest?

Het is vrij goed bekend in de studie van zelfbewustzijn. Andere namen voor de kwestie zijn de spiegel-zelfherkenningstest, de rode stip-test, de rouge-test en verwante fraseringen. De techniek en aanpak werden aanvankelijk ontwikkeld in de vroege jaren 1970 voor het beoordelen van het zelfbewustzijn van dieren. Dieren die naar verluidt de test met succes hebben doorstaan, zijn onder meer apen, bepaalde soorten olifanten, dolfijnen, eksters en enkele andere. Dieren die zijn getest en naar verluidt de test niet hebben doorstaan, zijn onder meer reuzenpanda's, zeeleeuwen, enz.

Dit is de deal.

Wanneer een dier zichzelf in een spiegel ziet, realiseert het dier zich dan dat het getoonde beeld van henzelf is, of denkt het dier dat het een ander dier is?

Vermoedelijk herkent het dier zijn eigen soort visueel, nadat het andere van zijn soort heeft gezien, en zou daarom kunnen denken dat het dier dat in de spiegel wordt getoond een neef is of misschien een oorlogvoerende concurrent (vooral als het dier naar het spiegelbeeld snauwt, wat in beurt lijkt terug te grommen). Misschien heb je je huiskat of geliefde hond hetzelfde zien doen als hij zichzelf voor het eerst in een huisspiegel ziet.

We gaan er in ieder geval vanuit dat een wild dier zichzelf nog nooit eerder heeft gezien. Nou, dit is niet per se waar, want misschien ving het dier een glimp van zichzelf op in een kalme plas water of via een glanzende rotsformatie. Maar die worden als minder waarschijnlijke kansen beschouwd.

Oké, we willen op de een of andere manier beoordelen of een dier in staat is om erachter te komen dat het in feite het dier is dat in de spiegel wordt getoond. Denk na over die schijnbaar eenvoudige handeling. Mensen komen er al op jonge leeftijd achter dat ze bestaan ​​en dat hun bestaan ​​wordt aangetoond door zichzelf in een spiegel te zien. Ze worden zelfbewust van zichzelf. In theorie realiseer je je misschien niet dat je jezelf bent, totdat je jezelf in een spiegel ziet.

Misschien zijn dieren niet in staat om op dezelfde manier cognitief zelfbewust te worden. Het kan zijn dat een dier zichzelf in een spiegel ziet en voortdurend gelooft dat het een ander dier is. Hoe vaak hij zichzelf ook ziet, hij zou toch denken dat dit een ander dier is dan hijzelf.

Het trucgedeelte hiervan komt om te spelen. We maken een stempel op het dier. Dit merkteken moet alleen zichtbaar zijn wanneer het dier zichzelf in de spiegel ziet. Als het dier kan draaien of draaien en het merkteken op zichzelf (direct) kan zien, verpest dat het experiment. Verder kan het dier het merkteken niet voelen, ruiken of op een andere manier waarnemen. Nogmaals, als ze dat zouden doen, zou het het experiment verpesten. Het dier kan niet weten dat we er een merkteken op hebben gezet, omdat dat het beest zou doen weten dat er iets is.

We willen dingen zo beperken dat de enige mogelijke reden dat het merkteken kan worden gevonden, zou zijn door naar zichzelf in de spiegel te kijken.

Aha, de test is nu klaar. Het dier wordt voor een spiegel geplaatst of dwaalt ernaartoe. Als het dier vervolgens probeert het merkteken aan te raken of eraan te graven, zouden we redelijkerwijs kunnen concluderen dat dit alleen zou gebeuren als het dier beseft dat het merkteken op zichzelf zit. Zeer weinig diersoorten hebben deze test met succes kunnen doorstaan.

Er is veel kritiek op de test. Als een menselijke tester in de buurt is, kunnen ze dingen weggeven door naar het merkteken te staren, waardoor het dier het kan borstelen of voelen. Een andere mogelijkheid is dat het dier nog steeds gelooft dat een ander dier in de spiegel wordt getoond, maar dat het van hetzelfde type is, en dat het dier zich dus afvraagt ​​of het ook een merkteken heeft zoals dat op het andere dier.

Het gaat maar door.

Ik weet zeker dat u dit graag weet en dat u voortaan zult begrijpen waarom er een stip of een vreemde markering op een dier staat dat anders niet zo'n markering zou hebben. Wie weet heeft het onlangs een spiegeltestexperiment afgerond. Feliciteer het dier veilig, omdat het een gulle deelnemer is geweest.

Wat heeft dat allemaal te maken met op AI gebaseerde zelfrijdende auto's?

Je zult dit deel leuk vinden.

Een zelfrijdende auto rijdt langs een lange snelweg. Het AI-aandrijfsysteem gebruikt sensoren om ander verkeer te detecteren. Dit is een snelweg met twee rijstroken, waarbij het verkeer op de ene rijbaan in noordelijke richting gaat en op de andere rijbaan in zuidelijke richting. Af en toe proberen auto's en vrachtwagens elkaar te passeren, waarbij ze de tegenovergestelde rijstrook inrijden en vervolgens terugspringen in hun juiste rijstrook.

Je hebt dit gezien, je hebt dit ongetwijfeld gedaan.

Ik wed dat dit volgende aspect jou ook is overkomen. Voor de zelfrijdende auto staat een van die flinke tankwagens. Het is gemaakt van glanzend metaal. Gepolijst en schoon als een fluitje. Wanneer u achter zo'n vrachtwagen stapt, kunt u via het achterste gedeelte van de tankwagen het spiegelbeeld van uw auto zien. Als je dit hebt gezien, weet je hoe fascinerend het kan zijn. Daar ben je, jij en je auto, weerspiegeld in de spiegelachtige reflectie van de achterkant van de tankwagen.

Ga zitten voor de gekke draai.

Achter de tankwagen komt een zelfrijdende auto aanrijden. De camera's detecteren het beeld van een auto dat wordt weergegeven in de spiegelachtige reflectie. Whoa, beoordeelt de AI, is dat een auto? Komt het bij de zelfrijdende auto? Naarmate de zelfrijdende auto steeds dichter bij de tankwagen komt, lijkt de auto steeds dichterbij te komen.

Yikes, de AI zou computationeel kunnen berekenen dat dit een gevaarlijke situatie is en de AI zou ontwijkende actie moeten ondernemen vanuit dit gekke bedrieglijke voertuig. Zie je, de AI herkende zichzelf niet in de spiegel. Het is niet geslaagd voor de spiegeltest.

Wat moeten we doen? Misschien springt de AI-zelfbewuste dubbelchecker in de zaak en stelt de rest van het AI-aandrijfsysteem gerust dat het slechts een ongevaarlijke reflectie is. Gevaar afgewend. De wereld is gered. Succesvolle passage van de AI Mirror Test!

Met een ironische conclusie zouden we zelfs kunnen suggereren dat AI soms slimmer of op zijn minst zelfbewuster is dan een gemiddelde beer (hoewel ze, tot eer van beren, het meestal goed doen in de spiegeltest, vaak hebbend gekregen gewend aan hun weerspiegeling in plassen water).

Correctie, misschien kan AI meer zelfbewust zijn dan reuzenpanda's en zeeleeuwen, maar vertel de dieren dat niet, ze kunnen in de verleiding komen om AI-systemen te vernietigen of te bashen. Dat willen we niet, toch?

Bron: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/