AI-ethiek die het klonen van menselijke stemmen in twijfel trekt, zoals die van uw overleden familieleden, bedoeld voor gebruik in autonome AI-systemen

Oeps, een schijnbaar handig stukje nieuwe technologie heeft zichzelf en zijn maker in een beetje heet water gebracht.

Ik verwijs naar de opkomst van het klonen van menselijke stemmen op basis van AI als de nieuwe technologie die de laatste tijd in het oh-my-gosh-nieuws is gekomen. In dit geval is het bedrijf Amazon en zijn steeds verder oprukkende Alexa.

Lezers van mijn column herinneren zich misschien dat ik eerder het ongepaste boe-boe had behandeld dat optrad toen werd gemeld dat een jongere door Alexa werd aangemoedigd om een ​​cent in een stopcontact te steken (doe dit niet!), zie mijn bericht op de link hier. In die omstandigheid raakte gelukkig niemand gewond, en het resultaat was dat het Alexa AI-systeem blijkbaar een eerdere virale trend had opgepikt en zonder enige schijn van gezond verstand alleen de gekke suggestie herhaalde toen hem werd gevraagd om iets leuks te doen door een kind dat interactie heeft met Alexa. Dit benadrukt de bezorgdheid van AI-ethiek dat we overspoeld worden met AI die geen enkele schijn van gezond verstand heeft, een bijzonder moeilijk probleem waarmee AI wordt geconfronteerd en die pogingen blijft tarten om in AI te worden belichaamd (voor mijn analyse over op AI gebaseerde inspanningen, zie de link hier).

De nieuwste opoffering omvat het klonen van spraak, ook bekend als spraakreplicatie. De nieuwste ontwikkelingen op het gebied van technologie en AI roepen dringende AI-ethiek en ethische AI-overwegingen op. Voor mijn doorlopende overkoepelende berichtgeving over AI Ethics en Ethical AI, zie: de link hier en de link hier, om er een paar te noemen.

Op AI gebaseerde spraakklonen is een eenvoudig concept.

Een AI-systeem is geprogrammeerd om een ​​aantal van uw gesproken woorden op te nemen. De AI probeert vervolgens uw spraakpatronen computationeel te achterhalen. Op basis van de gedetecteerde spraakpatronen probeert de AI vervolgens audiospraak uit te zenden die precies zoals u klinkt. Het lastige is dat de spraak woorden omvat die u niet eerder als audiovoorbeelden aan de AI had verstrekt. Met andere woorden, de AI moet wiskundig inschatten hoe woorden door u kunnen worden uitgesproken. Dit omvat alle kenmerken van spraak, zoals de toon, het stijgen en dalen van de stem, het tempo of de snelheid van spreken, enzovoort.

Wanneer je een mens hoort proberen een ander mens te imiteren, kun je meestal zien dat de poging een imitatie is. Op de korte termijn, bijvoorbeeld als de imitator maar een paar woorden gebruikt, kan het moeilijk zijn om erachter te komen dat de stem niet de oorspronkelijke spreker is. Bovendien, als de imitator woorden nabootst die de oorspronkelijke spreker daadwerkelijk heeft gesproken, is de kans groot dat hij zijn eigen stem meer kan afstemmen op de stem van de andere persoon voor die specifieke uiting.

Beknoptheid en het horen van exact dezelfde woorden kan iemand in staat stellen vrijwel een imitatie te nagelen.

De uitdaging wordt om woorden te bedekken die de andere persoon niet heeft gesproken of waarvoor de imitator de persoon nog nooit die specifieke woorden heeft horen uitspreken. Je tast een beetje in het duister over hoe de nagebootste persoon die woorden zou hebben gezegd. Het goede nieuws is dat als iemand anders die naar de imitator luistert ook niet weet hoe de oorspronkelijke persoon de woorden zou hebben gezegd, de imitator zich relatief ver van de ware stem kan bevinden en toch dandy en doelgericht kan lijken.

Ik zou ook even de maniertjes en fysieke beweging van de imitatie uit de vergelijking willen verwijderen. Bij het zien van een imitator, zou je kunnen worden beïnvloed als ze in staat zijn om hun gezicht te rimpelen of met hun armen te zwaaien op een manier die ook de persoon nabootst die wordt nagebootst. De toegevoegde signalen van het lichaam en het gezicht zullen je geest voor de gek houden door te denken dat de stem ook dood is, ook al is dat misschien niet zo. Een purist van stemimitatie zou erop aandringen dat alleen de stem als criterium moet worden gebruikt om te bepalen of de stem de nagebootste persoon goed nabootst.

Je hebt zeker de verschillende deepfake-video's gezien die tegenwoordig op sociale media rondgaan. Iemand verschuift zo slim een ​​video om het gezicht van iemand anders in de video te laten verschijnen, waarbij een gezicht wordt overlapt dat van iemand anders was in de originele opname. Dit gaat meestal ook gepaard met het doen van een deepfake op de stem. Je krijgt een dubbele klap, waarbij de video visueel wordt gewijzigd via deepfake AI en de audio wordt gewijzigd via deepfake AI.

Ter wille van de discussie hierin concentreer ik me alleen op de op AI gebaseerde deepfake-audiofacetten, die, zoals eerder vermeld, gewoonlijk wordt aangeduid als spraakklonen of spraakreplicatie. Sommigen noemen dit brutaal een stem in een blikje.

Ik ben er zeker van dat sommigen van jullie nu aansporen dat we al een hele tijd computerprogramma's kunnen gebruiken voor het klonen van stemmen. Dit is op zich niets nieuws. Daar ben ik het mee eens. Tegelijkertijd moeten we erkennen dat deze hightech-capaciteit steeds beter wordt. Nou, ik zeg steeds beter, maar misschien, zoals je zo zult zien, zou ik moeten zeggen dat het steeds zorgwekkender en zorgwekkender wordt.

Houd die gedachte vast.

De technologische bekwaamheid gaat zeker vooruit voor het klonen van stemmen. Vroeger moest je bijvoorbeeld een AI-audioreplicatieprogramma 'trainen' door een heel verhaal van mix-and-match-woorden te vertellen. Verwant aan de beroemde of beruchte regel van de snelle bruine vos die over de luie hond sprong (een regel bedoeld om iemand alle letters van het alfabet te laten dekken), zijn er speciaal vervaardigde korte verhalen die een mengeling van woorden bevatten om zodat je genoeg woorden en een breed genoeg verscheidenheid aan woorden zegt om het matchen van AI-patronen een stuk eenvoudiger te maken.

Je hebt misschien meerdere pagina's met woorden moeten lezen, vaak met woorden die je moeilijk kunt uitspreken en niet eens zeker weet wat ze betekenen, om AI-patroonovereenkomst voldoende mogelijk te maken. Dit kan vele minuten of soms uren in beslag nemen om de AI van voldoende audio te voorzien om te gebruiken voor het vinden van duidelijke patronen van uw stem. Als je deze trainingsactiviteit te kort zou doen, was de kans groot dat de resulterende stemreplicatie gemakkelijk zou worden neergeschoten door vrienden van je die je stem goed kennen.

Oké, de interesse van AI-ontwikkelaars was toen gericht op het optimaliseren van de audioreplicerende aspecten. AI-bouwers houden van uitdagingen. Er wordt gezegd dat ze optimizers in hart en nieren zijn. Geef ze een probleem en ze zullen de neiging hebben om te optimaliseren, ongeacht waar dat toe leidt (ik noem dit als een voorbode, die binnenkort duidelijker zal worden).

Beantwoord mij dit:

  • Wat is de minste hoeveelheid audiosample die nodig zou zijn om de stem van een persoon maximaal te klonen en waarvoor de audiosample bijna elke willekeurig toegestane reeks woorden kan zijn en toch stemklonen mogelijk maakt om bijna alle woorden te produceren die ooit zouden kunnen worden gesproken door de gerichte stem en geluid in wezen identiek aan de stem van die persoon in een conversatie of andere contextuele instellingen naar keuze?

Er zit veel in om uit te pakken.

Houd er rekening mee dat je de minimale audiosample wilt die een stem maximaal zal klonen, zodat de resulterende AI-uitingen in die nu automatisch gerepliceerde stem totaal niet te onderscheiden lijken van de daadwerkelijke persoon. Dit is lastiger dan je zou denken.

Het is bijna zoals die spelshow waarbij je een nummer moet proberen te noemen op basis van het minste aantal gehoorde noten. Hoe minder noten er worden gespeeld, hoe moeilijker het is om te raden welk nummer het is. Als je gok verkeerd is, verlies je de punten of verlies je het spel. Er ontstaat een strijd of je maar één noot moet gebruiken, de minst mogelijke aanwijzing, maar dan is je kans om het nummer te raden waarschijnlijk ernstig verminderd. Hoe meer noten je hoort, hoe groter de kans dat je het juiste nummer raadt, maar je geeft andere deelnemers ook een grotere kans om ook te raden.

Onthoud dat we in het geval van klonen van stemmen ook te maken hebben met het idee van voorgeschreven woorden versus zomaar woorden. Als een persoon de woorden "Je kunt de waarheid niet aan" zegt en we willen dat de AI de persoon nabootst of imiteert, kan de AI het patroon waarschijnlijk gemakkelijk doorgronden. Aan de andere kant, stel dat we alleen deze woorden hebben zoals gesproken door die persoon "Is dat alles wat je me hoeft te vragen" en we willen die woorden gebruiken om de AI vervolgens te laten zeggen: "Je kunt de waarheid niet aan." Ik denk dat je kunt zien hoe moeilijk het is om op één set woorden te trainen en te extrapoleren naar een geheel andere set woorden.

Een ander lastig element is de context voor de gesproken woorden. Stel dat we u een zin laten opnemen als u rustig en op uw gemak bent. De AI patronen die woorden. Het kan ook een patroon vormen voor de kalmte van je stem. Stel je voor dat we dan willen dat de AI doet alsof jij het bent als je zo gek en boos schreeuwt als een horzel. Het kan ontmoedigend zijn om de AI het oorspronkelijke patroon te laten vervormen tot een nauwkeurig boze versie van je stem.

Naar wat voor minima kijken we?

Het doel is nu om de minuut te breken.

Pak een opgenomen stem waarvoor je minder dan een minuut aan audio hebt en laat de AI al het geweldige klonen van stemmen doen vanaf dat minuscule voorbeeld alleen. Ik wil duidelijk maken dat bijna iedereen AI kan samenstellen die dit kan algemeen in minder dan een minuut, hoewel de resulterende stemkloon slap is en gemakkelijk als onvolledig wordt gedetecteerd. Nogmaals, ik verbind uitdrukkelijk en onvermurwbaar dat de bemonsteringstijd minimaal is en ondertussen is het klonen van stemmen maximaal. Een dolt kan een minimale bemonstering bereiken als ze ook grof submaximaal mogen zijn bij het klonen van stemmen.

Dit is een leuke en spannende technologische uitdaging. Je vraagt ​​​​je misschien af ​​​​wat de waarde of verdiensten zijn om dit te doen. Met welk doel zoeken we? Welke voordelen voor de mensheid kunnen we verwachten door zo efficiënt en effectief op AI gebaseerde spraakreplicatie uit te voeren?

Ik wil dat je over die vlezige vraag nadenkt.

Het verkeerde antwoord kan je onbedoeld in een hoop brij brengen.

Hier is iets dat vrolijk en helemaal positief lijkt.

Stel dat we misschien oude opnames hebben van beroemde mensen zoals Abraham Lincoln en die stoffige audiofragmenten konden gebruiken om een ​​op AI gebaseerde spraakkloon te maken. We konden Lincoln toen de Gettysburg Address horen uitspreken alsof we erbij waren op de dag dat hij de vier partituren uitsprak en zeven jaar geleden een gedenkwaardige toespraak. Terzijde: we hebben helaas geen audio-opnames van de stem van Lincoln (de technologie bestond nog niet), maar we hebben wel stemopnames van president Benjamin Harrison (de eerste van de Amerikaanse presidenten die een stemopname liet maken van ) en andere presidenten daarna.

Ik denk dat we het er waarschijnlijk allemaal redelijkerwijs over eens zijn dat dit specifieke gebruik van op AI gebaseerde spraakklonen prima is. In feite zouden we dit waarschijnlijk meer willen dan wanneer een acteur vandaag zou proberen te doen alsof hij spreekt als Lincoln. De acteur zou vermoedelijk alles verzinnen wat ze dachten dat Lincoln's werkelijke stem klonk. Het zou een verzinsel zijn, misschien ver verwijderd van wat Lincolns stem was. In plaats daarvan zou er, door het gebruik van een goed gekwalificeerd AI-stemkloningsysteem, weinig discussie zijn over hoe de stem van Lincoln echt klonk. De AI zou feitelijk correct zijn, althans in de mate van hoe goed de AI is in het repliceren van de beoogde stem.

In de categorie goedheid over AI-spraakklonen kunnen we een overwinning behalen met dit soort use-case.

Ik wil niet somber zijn, maar er is een keerzijde aan zelfs dit schijnbaar allesomvattende gebruik.

Iemand gebruikt een AI-stemkloningsysteem om de stem van Theodore Roosevelt ("Teddy") te achterhalen, onze gekoesterde 26th President van de Verenigde Staten, natuuronderzoeker, natuurbeschermer, staatsman, schrijver, historicus en bijna universeel bestempeld als een gewaardeerd persoon. Toespraken die hij hield en waarvoor we geen historisch bewaarde audioversies hebben, konden nu worden "gesproken" alsof hij persoonlijk vandaag de toespraak hield. Een lovenswaardige opsteker voor het bestuderen van geschiedenis.

Laten we dit lelijk maken, gewoon om de nadelen ervan te onthullen.

We gebruiken de op Teddy AI gebaseerde stemkloon om een ​​toespraak te lezen die werd gegeven door een kwaadaardige dictator. De AI geeft er niet om wat hij zegt, omdat er geen schijn van gevoel in de AI is. Woorden zijn gewoon woorden, of beter gezegd, wolkjes van geluid.

Je zou verbijsterd kunnen zijn dat iemand zoiets achterbaks zou doen. Waarom zou in godsnaam de op AI gebaseerde gekloonde stem van de beroemde en gerespecteerde Theodore Roosevelt worden gebruikt om een ​​toespraak te houden die niet alleen Teddy oorspronkelijk niet deed, maar bovendien spreekt over een onderwerp dat een of andere slechtheid van een verachtelijke verbeeldt dictator?

Schandalig, zou je kunnen uitroepen.

Makkelijk gedaan, komt het antwoord.

In wezen is een zeer belangrijke zorg over de op AI gebaseerde stemreplicatie dat we ons plotseling overspoeld zullen voelen met nep of zullen we deepfake toespraken en uitingen zeggen die niets te maken hebben met historische feiten of nauwkeurigheden. Als er genoeg van worden gemaakt en afgekondigd, kunnen we in de war raken over wat feit is en wat fictie is.

U kunt overvloedig zien hoe dit kan ontstaan. Met behulp van een op AI gebaseerde spraakkloon maakt iemand een audio-opname van Woodrow Wilson die een toespraak houdt die hij eigenlijk nooit heeft gegeven. Dit wordt op internet geplaatst. Iemand anders hoort de opname en denkt dat het echt is. Ze posten het elders en vermelden dat ze deze geweldige historische opname van Woodrow Wilson hebben gevonden. Al snel gebruiken studenten in geschiedenislessen de audio in plaats van de geschreven versie van de toespraak te lezen.

Niemand weet uiteindelijk of de toespraak door Woodrow Wilson is gehouden of niet. Misschien was het dat wel, misschien niet, en iedereen denkt dat het hoe dan ook niet echt uitmaakt (nou ja, degenen die niet gericht zijn op historische nauwkeurigheid en feiten). Als de toespraak lafhartig is, geeft dit natuurlijk een verkeerde indruk of desinformatie van die historische figuur. Geschiedenis en fictie worden samengevoegd tot één.

Ik vertrouw erop dat u er hopelijk van overtuigd bent dat dit een nadeel is van op AI gebaseerde spraakklonen.

Nogmaals, we kunnen dit soort dingen al doen, zonder de nieuwere en verbeterde AI-gebaseerde stemreplicatie, maar het zal gemakkelijker worden om dit te doen en de resulterende audio zal extreem moeilijk zijn om onderscheid te maken tussen echt en nep. Tegenwoordig kun je met conventionele audioproducerende programma's meestal naar de uitvoer luisteren en vaak gemakkelijk vaststellen dat de audio vervalst is. Met de vooruitgang in AI zul je bij wijze van spreken al snel je oren niet meer geloven.

Hoe slecht het klonen van stemmen van historische figuren ook mag zijn, we moeten nadenken over de misschien wel bijzonder flagrante toepassingen van levende mensen van vandaag.

Ten eerste, heb je ooit gehoord van een enigszins populaire zwendel waarbij iemand zich voordoet als een baas of het equivalent daarvan? Enkele jaren geleden was er een verontrustende rage om een ​​restaurant of winkel te bellen en te doen alsof je de baas van het etablissement was. De vervalsing hield in dat een personeelslid belachelijke dingen moest doen, wat ze vaak plichtsgetrouw zouden doen in de valse overtuiging dat ze met hun baas praatten.

Ik wil niet verstrikt raken in dit soort woedende wandaden, maar een andere relevante is iemand te bellen die misschien slechthorend is en zich voor te doen als hun kleinzoon of kleindochter. De imitator probeert de grootouder te overtuigen om geld te geven om hen te helpen of misschien op een of andere manier te redden. Op basis van de geïmiteerde stem wordt de grootouder voor de gek gehouden om dit te doen. Verachtelijk. Beschamend. Verdrietig.

We staan ​​op het punt een tijdperk in te gaan waarin op AI gebaseerde spraakklonen op steroïden de komst van stemgerelateerde oplichting en oplichting mogelijk maken. De AI zal zo'n opmerkelijk werk doen op het gebied van stemreplicatie dat iedereen die de stem hoort, op zijn eed zal zweren dat de daadwerkelijke persoon degene was die aan het woord was.

Hoe ver zou dat kunnen gaan?

Sommigen zijn bezorgd dat de vrijlating van bijvoorbeeld atoomwapens en militaire aanvallen zou kunnen gebeuren door iemand die een op AI gebaseerde stemkloon gebruikt die anderen misleidt door te geloven dat een militaire officier van het hoogste niveau een direct bevel gaf. Hetzelfde kan gezegd worden van iedereen in een prominente positie. Gebruik een buitengewoon nauwkeurige AI-spraakkloon om een ​​bankdirecteur miljoenen dollars aan fondsen vrij te laten maken, op basis van voor de gek gehouden te worden door te geloven dat ze met de bankcliënt in kwestie praten.

In de afgelopen jaren zou dit niet per se overtuigend zijn geweest om dit met AI te doen. Op het moment dat de mens aan de andere kant van de telefoon vragen begint te stellen, zou de AI moeten vertrekken van een voorbereid script. Op dat moment zou het klonen van stemmen verslechteren, soms radicaal. De enige manier om de zwendel gaande te houden, was het gesprek terug in het script te dwingen.

Met het type AI dat we vandaag hebben, inclusief vooruitgang in Natural Language Processing (NLP), kun je van een script afgaan en mogelijk de AI-stemkloon laten lijken op een natuurlijke, gemoedelijke manier te spreken (dit is niet altijd het geval, en er zijn nog steeds manieren om de AI te laten struikelen).

Voordat we ingaan op wat meer vlees en aardappelen over de wilde en wollige overwegingen die ten grondslag liggen aan op AI gebaseerde stemklonen, laten we enkele aanvullende grondbeginselen vaststellen over zeer essentiële onderwerpen. We moeten even een frisse duik nemen in AI Ethics en vooral de komst van Machine Learning (ML) en Deep Learning (DL).

Je bent je er misschien vaag van bewust dat een van de luidste stemmen tegenwoordig in het AI-veld en zelfs buiten het veld van AI bestaat uit het roepen om een ​​grotere schijn van ethische AI. Laten we eens kijken naar wat het betekent om te verwijzen naar AI Ethics en Ethical AI. Bovendien zullen we onderzoeken wat ik bedoel als ik het heb over Machine Learning en Deep Learning.

Een bepaald segment of deel van AI-ethiek dat veel media-aandacht heeft gekregen, bestaat uit AI die ongewenste vooroordelen en ongelijkheden vertoont. Je weet misschien dat toen het nieuwste tijdperk van AI begon, er een enorme uitbarsting van enthousiasme was voor wat sommigen nu noemen AI voorgoed. Helaas, op de hielen van die stromende opwinding, begonnen we te getuigen AI voor slecht. Er is bijvoorbeeld onthuld dat verschillende op AI gebaseerde gezichtsherkenningssystemen raciale vooroordelen en gendervooroordelen bevatten, die ik heb besproken op de link hier.

Pogingen om terug te vechten tegen AI voor slecht zijn actief aan de gang. Naast luidruchtig wettelijk pogingen om het wangedrag te beteugelen, is er ook een substantiële duw in de richting van het omarmen van AI-ethiek om de boosaardigheid van AI recht te zetten. Het idee is dat we de belangrijkste ethische AI-principes voor de ontwikkeling en toepassing van AI moeten aannemen en onderschrijven om de AI voor slecht en tegelijkertijd de voorkeur aankondigen en promoten AI voorgoed.

Wat dat betreft, ben ik een voorstander van het proberen om AI te gebruiken als onderdeel van de oplossing voor AI-problemen, door vuur met vuur te bestrijden in die manier van denken. We kunnen bijvoorbeeld ethische AI-componenten in een AI-systeem inbedden dat zal controleren hoe de rest van de AI het doet en zo mogelijk in realtime eventuele discriminerende inspanningen opvangt, zie mijn discussie op de link hier. We zouden ook een apart AI-systeem kunnen hebben dat fungeert als een soort AI Ethics-monitor. Het AI-systeem dient als een opzichter om te volgen en te detecteren wanneer een andere AI de onethische afgrond ingaat (zie mijn analyse van dergelijke mogelijkheden op de link hier).

In een oogwenk zal ik enkele overkoepelende principes met u delen die ten grondslag liggen aan AI-ethiek. Er zwerven hier en daar veel van dit soort lijsten rond. Je zou kunnen zeggen dat er nog geen eenduidige lijst is van universele aantrekkingskracht en overeenstemming. Dat is het ongelukkige nieuws. Het goede nieuws is dat er in ieder geval direct beschikbare AI Ethics-lijsten zijn en dat ze vrij gelijkaardig zijn. Alles bij elkaar genomen suggereert dit dat we door een vorm van beredeneerde convergentie onze weg vinden naar een algemene gemeenschappelijkheid van waar AI-ethiek uit bestaat.

Laten we eerst kort enkele van de algemene ethische AI-regels bespreken om te illustreren wat een essentiële overweging zou moeten zijn voor iedereen die AI ontwerpt, in de praktijk brengt of gebruikt.

Bijvoorbeeld, zoals vermeld door het Vaticaan in de Rome roept op tot AI-ethiek en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes geïdentificeerde primaire ethische principes voor AI:

  • Transparantie: AI-systemen moeten in principe verklaarbaar zijn
  • inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen hiervan kan profiteren en alle individuen de best mogelijke voorwaarden kunnen worden geboden om zich uit te drukken en zich te ontwikkelen.
  • Verantwoordelijkheid: Degenen die het gebruik van AI ontwerpen en inzetten, moeten verantwoordelijkheid en transparantie aan de dag leggen
  • Onpartijdigheid: Creëer of handel niet volgens vooroordelen, en waarborg zo eerlijkheid en menselijke waardigheid
  • Betrouwbaarheid: AI-systemen moeten betrouwbaar kunnen werken
  • Veiligheid en privacy: AI-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Zoals vermeld door het Amerikaanse ministerie van Defensie (DoD) in hun: Ethische principes voor het gebruik van kunstmatige intelligentie en zoals ik uitgebreid heb behandeld op de link hier, dit zijn hun zes primaire ethische principes voor AI:

  • Verantwoordelijk: DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg aan de dag leggen en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van AI-capaciteiten.
  • Billijk: Het ministerie zal weloverwogen stappen ondernemen om onbedoelde vooringenomenheid in AI-mogelijkheden te minimaliseren.
  • traceerbaar: De AI-capaciteiten van de afdeling zullen zodanig worden ontwikkeld en ingezet dat het relevante personeel een passend begrip heeft van de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, met inbegrip van transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.
  • Betrouwbaar: De AI-mogelijkheden van de afdeling zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gegarandeerd binnen die gedefinieerde toepassingen gedurende hun gehele levenscyclus.
  • Bestuurbaar: De afdeling zal AI-mogelijkheden ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te vermijden, en de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.

Ik heb ook verschillende collectieve analyses van ethische principes van AI besproken, waaronder een reeks die door onderzoekers is bedacht en waarin de essentie van talrijke nationale en internationale ethische principes van AI is onderzocht en samengevat in een paper getiteld "The Global Landscape Of AI Ethics Guidelines" (gepubliceerd in NATUUR), en dat mijn dekking verkent op de link hier, wat leidde tot deze keystone-lijst:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Zoals je misschien direct vermoedt, kan het buitengewoon moeilijk zijn om de details vast te stellen die aan deze principes ten grondslag liggen. Sterker nog, de inspanning om die brede principes om te zetten in iets dat volledig tastbaar en gedetailleerd genoeg is om te worden gebruikt bij het maken van AI-systemen, is ook een harde noot om te kraken. Het is gemakkelijk om in het algemeen wat met de hand te zwaaien over wat AI-ethische voorschriften zijn en hoe ze in het algemeen moeten worden nageleefd, terwijl het een veel gecompliceerdere situatie is in de AI-codering die het echte rubber moet zijn dat de weg ontmoet.

De AI Ethics-principes moeten worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren. Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder vermeld, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Laten we er ook voor zorgen dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild willen speculeren over voelend AI, deze discussie kan een radicaal andere richting uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens. Meer nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen.

Laten we het wat meer nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonvergelijkingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Laten we terugkeren naar onze focus op op AI gebaseerde spraakklonen.

Tijdens een recente conferentie was een presentatie van Amazon bedoeld om de wenselijke voordelen van op AI gebaseerde spraakklonen te demonstreren en om de nieuwste geavanceerde AI te benadrukken die in Alexa wordt gebruikt om de mogelijkheden ervan te verbeteren. Volgens nieuwsberichten bestond een voorbereid voorbeeld dat hartverwarmend en opgewekt moest zijn, erin dat een kind Alexa vroeg om hun oma het verhaal van De tovenaar van Oz. Het publiek kreeg te horen dat de grootmoeder was overleden en dat dit voor het kind een middel was om in wezen opnieuw contact te maken met hun dierbaar gekoesterde grootouder. Dit alles was blijkbaar onderdeel van een video die door Amazon is samengesteld om de nieuwste doorbraken op het gebied van AI-spraakklonen te laten zien door het Alexa-ontwikkelingsteam (inclusief functies die nog niet formeel zijn gelanceerd voor openbaar gebruik).

Een reactie op dit voorbeeld is dat we heel ontroerd konden zijn dat een kind weer de stem van zijn oma kon horen. We moeten vermoedelijk aannemen dat de grootmoeder het verhaal nog niet volledig had voorgelezen, dus het klonen van de AI deed het werk om dingen te laten lijken alsof de grootmoeder nu het hele verhaal deed.

Opmerkelijk en een geweldige manier om opnieuw contact te maken met dierbaren die niet meer bij ons zijn.

Niet alle verslaggevers en analisten (plus Twitter) waren zo geneigd om deze vooruitgang gunstig te interpreteren. Sommigen bestempelden dit als ronduit griezelig. Proberen om de stem van een overleden geliefde na te bootsen, zou een vreemde en ietwat bizarre onderneming zijn.

Er zijn veel vragen, zoals:

  • Zou het kind in de war raken en geloven dat de overleden geliefde nog in leven was?
  • Zou het kind nu in een of andere onhandige grap of oplichterij kunnen worden verleid in de valse overtuiging dat de grootmoeder nog steeds bij ons was?
  • Zou het kind kunnen lijden aan het horen over de overleden geliefde en moedeloos worden door de grootouder nu weer te missen, alsof het openen van al geregelde emotionele wonden?
  • Zal het kind denken dat de overledene van de andere kant kan spreken, namelijk dat deze mystieke stem die precies zijn grootmoeder lijkt te zijn vanuit het graf tot hem spreekt?
  • Is het denkbaar dat het kind denkt dat de AI op de een of andere manier zijn grootmoeder heeft belichaamd, door de AI zodanig te antropomorfiseren dat het kind zal opgroeien met de overtuiging dat AI de mens volledig kan nabootsen?
  • Stel dat het kind zo gecharmeerd raakt van de door AI gerepliceerde stem van de grootmoeder dat de jongere geobsedeerd raakt en de stem gebruikt voor allerlei soorten audio-luisteren?
  • Kan de verkoper die de stem repliceert ervoor kiezen om die stem te gebruiken voor anderen die hetzelfde algemene systeem gebruiken, zonder expliciete toestemming van de familie te krijgen en dus te "profiteren" van de bedachte stem?
  • En ga zo maar door.

Het is belangrijk om te beseffen dat je net zoveel negatieve als positieve kunt oproepen, of laten we zeggen zoveel positieve als negatieve. Er zijn afwegingen die ten grondslag liggen aan deze AI-vooruitgang. Kijken naar slechts één kant van de medaille is misschien bijziend.

De sleutel is om ervoor te zorgen dat we alle kanten van deze kwesties bekijken. Wees niet vertroebeld in uw denken. Het kan gemakkelijk zijn om alleen de positieve punten te onderzoeken. Het kan gemakkelijk zijn om alleen de minpunten te onderzoeken. We moeten beide onderzoeken en uitzoeken wat er kan worden gedaan om hopelijk de positieve punten te benutten en proberen de negatieven te verminderen, te elimineren of op zijn minst te verzachten.

Tot op zekere hoogte is dat de reden waarom AI Ethics en Ethical AI zo'n cruciaal onderwerp is. De voorschriften van AI Ethics zorgen ervoor dat we waakzaam blijven. AI-technologen kunnen soms in beslag worden genomen door technologie, met name de optimalisatie van hightech. Ze houden niet per se rekening met de grotere maatschappelijke gevolgen. Het hebben van een AI-ethiek-mindset en dit integraal doen voor de ontwikkeling en fielding van AI is van vitaal belang voor het produceren van geschikte AI.

Naast het gebruik van AI-ethiek, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen, zoals de op AI gebaseerde functies voor het klonen van stemmen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI Ethics dient op zijn minst als een weloverwogen noodoplossing.

Dat gezegd hebbende, beweren sommigen dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen zelfs van tevoren dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen. Zie bijvoorbeeld mijn dekking op de link hier en de link hier.

Op dit moment van deze gewichtige discussie, durf ik te wedden dat u op zoek bent naar enkele illustratieve voorbeelden die dit onderwerp zouden kunnen laten zien. Er is een bijzondere en zeker populaire reeks voorbeelden die mij na aan het hart liggen. Zie je, in mijn hoedanigheid van expert op het gebied van AI, inclusief de ethische en juridische gevolgen, word ik vaak gevraagd om realistische voorbeelden te identificeren die AI-ethische dilemma's demonstreren, zodat de enigszins theoretische aard van het onderwerp gemakkelijker kan worden begrepen. Een van de meest tot de verbeelding sprekende gebieden die dit ethische AI-vraagstuk levendig presenteert, is de komst van op AI gebaseerde echte zelfrijdende auto's. Dit zal dienen als een handig gebruiksvoorbeeld of voorbeeld voor een uitgebreide discussie over het onderwerp.

Hier is dan een opmerkelijke vraag die het overwegen waard is: Verlicht de komst van op AI gebaseerde echte zelfrijdende auto's iets over op AI gebaseerde spraakklonen, en zo ja, wat laat dit zien?

Sta me toe om de vraag even uit te klaren.

Merk allereerst op dat er geen menselijke bestuurder betrokken is bij een echte zelfrijdende auto. Houd er rekening mee dat echte zelfrijdende auto's worden bestuurd via een AI-aandrijfsysteem. Er is geen behoefte aan een menselijke bestuurder aan het stuur, noch is er een voorziening voor een mens om het voertuig te besturen. Voor mijn uitgebreide en doorlopende berichtgeving over autonome voertuigen (AV's) en vooral zelfrijdende auto's, zie: de link hier.

Ik wil graag verder verduidelijken wat wordt bedoeld met echte zelfrijdende auto's.

Inzicht in de niveaus van zelfrijdende auto's

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5 (zie mijn uitleg op deze link hier), terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning samen te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die de rijtaak delen, worden beschreven als semi-autonoom en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-ons die ADAS (Advanced Driver-Assistance Systems) worden genoemd.

Er is nog geen echte zelfrijdende auto op niveau 5, en we weten nog niet eens of dit mogelijk zal zijn, noch hoe lang het zal duren om daar te komen.

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen per se zou moeten worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment). die plaatsvinden op onze snelwegen en zijwegen, beweren sommigen, zie mijn berichtgeving op deze link hier).

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel anders zijn dan het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (hoewel, zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt.

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid.

Zelfrijdende auto's en op AI gebaseerde spraakklonen

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn.

Alle inzittenden zijn passagiers.

De AI doet het rijden.

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.

Waarom wordt deze extra nadruk gelegd op het feit dat de AI niet bewust is?

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.

Met die verduidelijking kun je je voorstellen dat het AI-aandrijfsysteem op de een of andere manier de facetten van autorijden niet kent. Rijden en alles wat daarbij komt kijken zal geprogrammeerd moeten worden als onderdeel van de hardware en software van de zelfrijdende auto.

Laten we eens kijken naar de talloze aspecten die over dit onderwerp spelen.

Ten eerste is het belangrijk om te beseffen dat niet alle AI-zelfrijdende auto's hetzelfde zijn. Elke autofabrikant en zelfrijdend technologiebedrijf kiest zijn benadering voor het ontwerpen van zelfrijdende auto's. Als zodanig is het moeilijk om ingrijpende uitspraken te doen over wat AI-aandrijfsystemen wel of niet zullen doen.

Bovendien, telkens wanneer wordt beweerd dat een AI-aandrijfsysteem iets bepaalds niet doet, kan dit later worden ingehaald door ontwikkelaars die de computer in feite programmeren om datzelfde te doen. Stap voor stap worden AI-aandrijfsystemen geleidelijk verbeterd en uitgebreid. Een bestaande beperking van vandaag bestaat mogelijk niet meer in een toekomstige iteratie of versie van het systeem.

Ik hoop dat dit een voldoende litanie van voorbehouden biedt om ten grondslag te liggen aan wat ik ga vertellen.

Laten we een scenario schetsen dat gebruik kan maken van op AI gebaseerde spraakklonen.

Een ouder en hun kind stappen in een zelfrijdende auto op basis van AI. Ze gaan naar hun lokale supermarkt. Naar verwachting wordt dit een relatief rustige rit. Gewoon een wekelijkse rit naar de winkel, hoewel de bestuurder een AI-aandrijfsysteem is en de ouder niet hoeft te rijden.

Voor een ouder is dit een grote zegen. In plaats van zich te moeten concentreren op het sturen en omgaan met het rijden, kan de ouder zijn aandacht richten op zijn kind. Ze kunnen samen spelen in het autonome voertuig en tijd doorbrengen met een waardevol karakter. Terwijl de ouder normaal gesproken zou worden afgeleid door het autorijden, en waarschijnlijk angstig en gespannen zou worden tijdens het navigeren door drukke straten en het omgaan met andere gekke chauffeurs in de buurt, is de ouder zich hier zalig onbewust van die zorgen en alleen maar heerlijk interactief met hun dierbare kind.

De ouder spreekt met het AI-aandrijfsysteem en vertelt de AI om ze naar de supermarkt te brengen. In een typisch scenario zou de AI reageren via een neutrale audio-uiting die je misschien wel hoort via de hedendaagse Alexa of Siri. De AI zou kunnen antwoorden door te stellen dat de supermarkt op 15 minuten rijtijd verwijderd is. Bovendien zou de AI kunnen zeggen dat de zelfrijdende auto ze helemaal vooraan de winkel zal afzetten.

Dat zou in een dergelijk scenario de enige spraakgerelateerde activiteit van de AI kunnen zijn. Misschien, zodra de zelfrijdende auto dicht bij de supermarkt komt, kan de AI iets zeggen over de bestemming die dichterbij komt. Er kan ook een vocale herinnering zijn om je spullen mee te nemen als je het autonome voertuig verlaat.

Ik heb uitgelegd dat sommige AI-aandrijfsystemen als het ware spraakzame katten zullen zijn. Ze zullen worden geprogrammeerd om vloeiender en voortdurend te communiceren met de menselijke ruiters. Wanneer u in een deelauto stapt die wordt bestuurd door een mens, wilt u soms dat de bestuurder spraakzaam is. Behalve hallo te zeggen, wil je misschien dat ze je vertellen over de plaatselijke weersomstandigheden, of misschien wijzen op andere bezienswaardigheden in de omgeving. Niet iedereen zal de praatgrage kat willen, dus de AI moet worden ontworpen om alleen dialogen aan te gaan wanneer de mens erom vraagt, zie mijn bericht op de link hier.

Nu ik alle gevestigde waarden heb, laten we de zaken op een kleine maar significante manier veranderen.

Doe alsof het AI-aandrijfsysteem een ​​op AI gebaseerde functie voor het klonen van spraak heeft. Laten we ook aannemen dat de ouder de AI-stemklonen eerder heeft gezaaid door een audiofragment van de grootmoeder van het kind te verstrekken. Verrassing, denkt de ouder, ik zal het AI-aandrijfsysteem laten spreken alsof het de overleden grootmoeder van het kind is.

Tijdens de rit naar de supermarkt communiceert het AI-aandrijfsysteem met de ouder en het kind, waarbij de hele tijd uitsluitend gebruik wordt gemaakt van de gekloonde stem van de grootmoeder.

Wat vind je hier van?

Griezelig of liefdevol memorabel?

Ik zal de zaken een tandje hoger zetten. Maak je klaar. Doe uw gordel om.

Sommigen geloven net als ik dat we uiteindelijk kinderen zullen toestaan ​​om zelf in op AI gebaseerde zelfrijdende auto's te rijden, zie mijn analyse op de link hier.

In de door mensen aangedreven auto's van tegenwoordig moet altijd een volwassene aanwezig zijn, omdat de wet vereist dat een volwassen bestuurder aan het stuur zit. Praktisch gezien kun je nooit een kind krijgen in een rijdende auto die alleen in het voertuig zit (ja, ik weet dat dit gebeurt, zoals een prominente 10-jarige zoon van een grote filmster die onlangs een back-up maakte een zeer dure auto in een andere zeer dure auto, maar hoe dan ook, dit zijn zeldzaamheden).

De ouders van tegenwoordig zouden er waarschijnlijk hevig bezwaar tegen hebben om hun kinderen in een zelfrijdende auto te laten rijden zonder een volwassene in het voertuig die als begeleider dient of over hun kinderen waakt. Ik weet dat het bijna onmogelijk voor te stellen lijkt, maar ik wed dat als zelfrijdende auto's eenmaal de overhand hebben, we onvermijdelijk het idee zullen accepteren dat kinderen zonder volwassenen zijn terwijl ze in een zelfrijdende auto rijden.

Denk aan de gemaksfactor.

Je bent aan het werk en je baas achtervolgt je om een ​​taak af te krijgen. U moet uw kind van school halen en naar de honkbaltraining brengen. Je zit vast tussen een rots en een harde plek als te sussend je baas of niet met je kind naar het oefenveld. Niemand anders die u kent, is beschikbaar om uw kind van een lift te voorzien. Je wilt in ieder geval geen gebruik maken van een dienst voor het delen van ritten met een menselijke chauffeur, omdat je je natuurlijk zorgen zou maken over wat die vreemde volwassene zou kunnen zeggen of doen terwijl hij je kind een ritje geeft.

Geen probleem, geen zorgen, gebruik gewoon een op AI gebaseerde zelfrijdende auto. U stuurt de zelfrijdende auto op afstand aan om uw kind op te halen. Via de camera's van de zelfrijdende auto zie en zie je hoe je kind in het zelfrijdende voertuig stapt. Verder zijn er naar binnen gerichte camera's en kun je je kind de hele autorit in de gaten houden. Dit lijkt net zo veilig, zo niet veiliger dan een vreemde menselijke chauffeur te vragen om een ​​lift voor uw kind te voorzien. Dat gezegd hebbende, zijn sommigen terecht bezorgd dat als het rijgedrag misgaat, u een kind aan zichzelf overlaat en er geen volwassene onmiddellijk aanwezig is om het kind te helpen of te begeleiden.

Afgezien van de vele scrupules, stel dat dezelfde ouder en hetzelfde kind dat ik in het vorige scenario beschreef het goed vinden dat het kind gaat rijden zonder dat de ouder aanwezig is. Accepteer gewoon dat dit uiteindelijk een haalbaar scenario is.

Hier is de finale kicker.

Elke keer dat het kind in de op AI gebaseerde zelfrijdende auto rijdt, worden ze begroet en communiceren ze met de AI, aangezien deze gebruikmaakt van de op AI gebaseerde stemklonen en de stem van de overleden grootmoeder van het kind repliceert.

Wat vind je van die appels?

Toen de ouder ook in de zelfrijdende auto zat, konden we het AI-spraakgebruik misschien excuseren, aangezien de ouder er is om het kind te adviseren over wat er gebeurt als de AI-audio spreekt. Maar als de ouder niet aanwezig is, gaan we er nu vanuit dat het kind idyllisch in orde is met de stemreplicatie van de grootmoeder.

Dit is absoluut een van die pauzemomenten om serieus na te denken of dit per saldo goed of slecht is voor een kind.

Conclusie

Laten we een beetje een gedachte-experiment doen om over deze gewichtige zaken na te denken.

Kom alsjeblieft met drie solide positief redenen om spraakklonen op basis van AI te gebruiken.

Ik wacht terwijl jij ze bedenkt.

Kom vervolgens met drie solide negatief redenen die de komst van op AI gebaseerde spraakklonen ondermijnen.

Ik neem aan dat je er een paar hebt bedacht.

Ik realiseer me dat je ongetwijfeld veel meer redenen kunt bedenken dan slechts drie die deze technologie voor- of afkeuren. Wegen naar uw mening de minpunten op tegen de pluspunten? Er zijn critici die beweren dat we de kibosh op dergelijke inspanningen moeten zetten.

Sommigen willen proberen bedrijven ervan te weerhouden gebruik te maken van op AI gebaseerde spraakklonen, hoewel ze zich realiseren dat dit een van die klassieke whack-a-mole-situaties is. Bij elk bedrijf dat u ermee stopt, is de kans groot dat een ander bedrijf het gaat gebruiken. Het bevriezen van de klok of het wegstoppen van dit soort AI zal bijna onmogelijk zijn om te ondernemen.

In een laatste opmerking over dit onderwerp voor dit moment, stel je voor wat er zou kunnen gebeuren als we op een dag bewuste AI kunnen bereiken. Ik zeg niet dat dit zal gebeuren. We kunnen hoe dan ook speculeren en zien waar dat toe kan leiden.

Overweeg eerst een inzichtelijke quote over spreken en een stem hebben. Madeleine Albright zei de beroemde uitspraak: "Het heeft me behoorlijk wat tijd gekost om een ​​stem te ontwikkelen, en nu ik die heb, zal ik niet zwijgen."

Als we in staat zijn om bewuste AI te produceren, of op de een of andere manier ontstaat er gevoeligheid, zelfs als we het niet direct naar voren brengen, welke stem zou die AI dan moeten hebben? Stel dat het zijn op AI gebaseerde stemklonen kan gebruiken en dus elke stem van een mens kan produceren via een piepklein stukje audiosampling dat mogelijk beschikbaar is zoals uitgesproken door die mens. Zo'n AI kan dan spreken en je voor de gek houden door te geloven dat de AI schijnbaar die persoon is.

Aan de andere kant, misschien wil AI zijn eigen stem hebben en met opzet een stem bedenken die totaal anders is dan alle andere menselijke stemmen, en op zijn eigen charmante manier speciaal willen zijn.

Jeetje, dit laat je bijna sprakeloos achter.

Bron: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- bedoeld-voor-gebruik-in-ai-autonome-systemen/