AI-ethiek en AI-wetten onthullen verontrustende zorgen van Tesla's AI Day Showcase en de steeds groter wordende AI-ambities van Elon Musk

Tesla AI Day 2022 is nu gekomen en gegaan, en heeft zich in de geschiedenisboeken gevestigd, zodat iedereen het naar hartelust opnieuw kan onderzoeken en analyseren.

Zie je, op vrijdagavond 30 september 2022 vond de laatste aflevering van de jaarlijkse Tesla AI Day-evenementen plaats in Silicon Valley met een wereldwijd online publiek. Deze langverwachte showcase zou Tesla en Elon Musk de mogelijkheid bieden om hun spullen te showen en te pronken met hun nieuwste AI-vooruitgang. Musk benadrukt meestal dat deze evenementen voornamelijk bedoeld zijn voor wervingsdoeleinden, in de hoop de eetlust te wekken van AI-ontwikkelaars en ingenieurs van over de hele wereld die zouden kunnen worden verleid om te solliciteren naar een baan bij Tesla.

Ik ben overspoeld met verzoeken om een ​​diepgaande analyse te doen die verder gaat dan de toch al veelheid van enigszins lite-gerelateerde rapportage-afbeeldingen die op internet zijn verschenen over deze nieuwste Tesla AI Day-shindig. Ik zal je zo meteen op de hoogte brengen en vooral enkele belangrijke overwegingen met betrekking tot AI-ethiek en AI-wetten behandelen die tot nu toe geen noemenswaardige online aandacht lijken te hebben gekregen.

En voor alle duidelijkheid, dit zijn punten die dringend en belangrijk aan de oppervlakte moeten worden gebracht. Voor mijn algemene lopende en uitgebreide discussies over AI Ethics en AI & Law, zie: de link hier en de link hier, om er een paar te noemen.

Laten we uitpakken wat er dit jaar is gebeurd op de Tesla AI-dag van Tesla.

EEN HOOFDKNIPPING NAAR DE AI-ONTWIKKELAARS EN INGENIEURS

Voordat ik inga op de inhoud van de presentaties, sta me toe iets cruciaals te zeggen over de AI-ontwikkelaars en ingenieurs die ofwel presenteerden ofwel op een gigantische manier het AI-werk achter de schermen bij Tesla hebben gedaan. Je moet ze de eer geven dat ze proberen de soms gekke richtlijnen van Musk te begrijpen over waar ze aan zouden moeten werken en het tempo waarin ze hun werk gedaan zouden moeten krijgen.

Ik heb Musks leiderschapsstijl en zijn AI-technisch inzicht genoemd in veel van mijn eerdere berichten, zoals: de link hier en de link hier. Aan de ene kant is hij scherp genoeg om schijnbaar in het algemeen te weten wat er gaande is in AI en hij dient als een enorme inspirerende kracht om hoog te mikken op het zoeken naar AI-prestaties. Geen twijfel daarover.

Tegelijkertijd lijkt hij soms ook per se verstoken van bruikbaarheid en straalt hij van ongetemde wensen en AI-dromen in overvloed. Hij lijkt deadlines uit het niets te halen. Ingevingen zijn de norm in plaats van beredeneerde pogingen om realistische schattingen te maken. Hij roept fantasievolle visioenen op van hoe wereldveranderende AI op wonderbaarlijke wijze zal worden bedacht en spuugt over onbereikbare tijdlijnen zonder schijnbaar een besliste scheut systematisch en bewust nadenken (zijn veelheid aan voorspellingen over de komst van op AI gebaseerde volledig autonome zelfrijdende auto's herhaaldelijk vergezochte en ongefundeerde beweringen hebben aangetoond).

Sommigen beweren dat hij een genie is en genieën zijn zo. Het is als het ware de aard van het beestje.

Anderen sporen aan dat een shoot-from-the-hip call-the-shots-leider onvermijdelijk zal struikelen en dit mogelijk tegen hoge kosten doet die anders gewoon niet nodig waren.

Niet dat het niet handig is om een ​​topleider te hebben die het belangrijk vindt om tot in de puntjes te werken. Het kan enorm helpen. Maar wanneer de visionair met grote ogen een beetje ver buiten de grenzen treedt, kan het moeilijk of uitdagend zijn om te proberen ze een idee te geven van wat er werkelijk gebeurt. Zoals vermeld op sociale media, leken sommige van de AI-ontwikkelaars en ingenieurs op het podium met Musk stil ineen te krimpen bij verschillende van zijn overdreven proclamaties. Waarschijnlijk waren hun geesten luidruchtig aan het racen om erachter te komen wat ze kunnen doen of zeggen om te proberen hun gezicht te redden, door deze rijdende trein op een redelijk realistisch spoor te houden en niet helemaal uit de rails te vliegen.

Tip van de hoed voor die AI-ontwikkelaars en ingenieurs.

DRIE BELANGRIJKSTE ONDERWERPEN DEZE TIJD ROND

Oké, met dat keystone-voorwoord kunnen we de details van de Tesla AI Day behandelen.

Er waren in wezen drie belangrijke onderwerpen die aan bod kwamen:

(1) Maken van een lopende robot met humanoïde kenmerken (bijv. Bumble C, Optimus)

(2) Vooruitgang in verband met Tesla's Autopilot en zogenaamde Full Self-Driving (FSD)

(3) Inspanningen in verband met de Tesla gespecialiseerde supercomputer genaamd Dojo

Een korte achtergrond voor het geval u niet bekend bent met die Tesla-initiatieven.

Ten eerste heeft Elon Musk geprezen dat de volgende grote doorbraak voor Tesla de ontwikkeling en inzet van een lopende robot met zich meebrengt die lijkt op humanoïde kenmerken. Op de Tesla AI Day 2021 vorig jaar was er een nogal gênante "demonstratie" van de beoogde robot waarbij een persoon betrokken was die een robotachtig kostuum droeg dat op het podium sprong en danste. Ik zeg gênant omdat het een van de meest ineenkrimpende momenten was van elke AI-showcase. Dit was geen mock-up of prototype. Het was een mens in een dun kostuum.

Stel je voor dat degenen die hun hele leven onvermoeibaar in AI-onderzoekslaboratoria en robotica hebben gewerkt, in zekere zin worden overrompeld door een persoon die een kostuum draagt ​​en rondhuppelt voor wereldwijd stralende camera's. Wat dit vooral verleidelijk maakte, was dat veel van de conventionele media dit aten, haak, lijn en zinklood. Ze plakten foto's van de 'robot' op hun voorpagina's en leken er vrolijk en onbetwistbaar van te genieten dat Musk op het punt stond lang gezochte sci-fi wandelende pratende robots te produceren.

Niet eens in de buurt.

Hoe dan ook, dit jaar was de persoon in het kostuum blijkbaar niet langer nodig (hoewel ze misschien in de coulissen zaten te wachten voor het geval ze plotseling dringend opnieuw moesten verschijnen). Bij de opening van de sessie werd een enigszins robotachtig humanoïde systeem op het podium gebracht. Deze robot werd Bumble C genoemd. Nadat we ons deze aangegeven eerste versie van de toekomstige robot hadden laten zien, werd een tweede enigszins humanoïde lijkend op robotsystemen op het podium gebracht. Deze tweede versie werd Optimus genoemd. Bumble C werd aangeduid als het out-the-gate first-poging prototype en staat qua bestaande functionaliteit verder dan Optimus. Optimus werd aangegeven als de meest waarschijnlijke vooruitstrevende versie van de humanoïde robot en zou uiteindelijk kunnen worden omgezet in een productiemodel dat op de markt verkrijgbaar is.

Over het algemeen was de meeste actie en aandacht voor Tesla AI Day 2022 gericht op dit soort lopende robots. Bannerkoppen zijn het gevolg. De vorderingen met betrekking tot Autopilot en FSD hebben niet dezelfde aandacht gekregen, en de details over Dojo hebben ook niet veel krantenpapier gekregen.

Over Autopilot en FSD gesproken, we moeten ervoor zorgen dat er wat zendtijd wordt gegeven aan dat deel van de Tesla AI Day. Zoals trouwe lezers weten, heb ik vele malen uitgebreid gesproken over Tesla's Autopilot en de zogenaamde Full Self-Driving (FSD)-mogelijkheden.

Kortom, Tesla-auto's worden vandaag beoordeeld als een niveau 2 op de autonomieschaal. Dit betekent dat een bestuurder met een menselijke licentie te allen tijde aan het stuur van de auto moet zitten en oplettend moet zijn tijdens het rijden. De mens is de bestuurder.

Ik noem dit belangrijke punt over het niveau van autonomie omdat veel niet-technische mensen ten onrechte geloven dat de Tesla's van vandaag op niveau 4 of niveau 5 staan.

Wrong!

Een Level 4 is een zelfrijdende auto die zichzelf bestuurt en geen menselijke bestuurder aan het stuur nodig heeft of verwacht. Niveau 4 wordt dan begrensd op een specifiek gericht Operational Design Domain (ODD). Een ODD kan bijvoorbeeld zijn dat de AI de auto alleen in een bepaalde stad zoals San Francisco kan besturen, en alleen onder bepaalde omstandigheden zoals zonneschijn, 's nachts en tot lichte regen (maar bijvoorbeeld niet in de sneeuw). Een Level 5 is een op AI gebaseerde zelfrijdende auto die autonoom kan werken op vrijwel elke plaats en onder alle omstandigheden waarin een menselijke bestuurder een auto beheersbaar zou kunnen besturen. Voor mijn gedetailleerde uitleg van Level 4 en Level 5, zie de link hier.

Het zal je misschien verbazen te weten dat Tesla's met Autopilot en zogenaamde FSD alleen Level 2 zijn. De naamgeving van "Full Self-Driving" lijkt zeker te impliceren dat de auto's minimaal Level 4 of mogelijk Level 5 moeten zijn. Aanhoudende angst en verontwaardiging was dat Tesla en Musk hun AI-aandrijfsysteem "Full Self-Driving" noemden, terwijl dat duidelijk niet zo is. Rechtszaken zijn het gevolg geweest. Sommige landen hebben ze op de proef gesteld voor de naamgeving.

Het gebruikelijke tegenargument is dat "Full Self-Driving" een ambitieus doel is en dat er niets mis is met het noemen van het AI-aandrijfsysteem voor wat het uiteindelijk moet worden. Het tegenargument tegen dat tegenargument is dat mensen die een Tesla kopen of rijden met de FSD in slaap worden gesust (of, zeggen critici, voor de gek gehouden) te geloven dat het voertuig inderdaad niveau 4 of niveau 5 is. Ik zal het punt hierin niet uitweiden en suggereren dat je zou eens kunnen kijken naar deze link hier voor meer inzichten over zaken als Autopilot en FSD.

Het derde onderwerp betrof de door Tesla gespecialiseerde supercomputer die bekend staat als Dojo.

Houd er als nuttige achtergrond rekening mee dat veel van de huidige AI-systemen gebruik maken van Machine Learning (ML) en Deep Learning (DL). Dit zijn computationele patroon-matching technieken en technologieën. De technologie die onder de motorkap van ML/DL zit, maakt vaak gebruik van Artificial Neural Networks (ANN). Zie kunstmatige neurale netwerken als een ruwe vorm van simulatie die probeert het idee na te bootsen van hoe onze hersenen biologische neuronen gebruiken die met elkaar verbonden zijn. Denk niet ten onrechte dat ANN's hetzelfde zijn als echte neurale netwerken (dwz wetware in je noggin). Ze zijn niet eens in de buurt.

Bij het ontwerpen van AI voor zelfrijdende systemen wordt veel vertrouwd op het gebruik van kunstmatige neurale netwerken. De meeste zelfrijdende auto's bevatten gespecialiseerde computerprocessors die zijn aangepast om ANN's te verwerken. Om de ANN's te programmeren en vast te stellen, zal een autofabrikant of zelfrijdende techmaker meestal een grotere computer gebruiken die grootschalige tests mogelijk maakt. De bedachte ANN's kunnen vervolgens worden gedownload naar de autonome voertuigen met behulp van over-the-air (OTA) updatemogelijkheden.

In het geval van Tesla hebben ze hun eigen supercomputer bedacht die is afgestemd op het doen van ANN's. Dit biedt een gepatenteerde mogelijkheid die de AI-ontwikkelaars potentieel efficiënt en effectief kan bewapenen met het soort computationele bandbreedte dat ze nodig hebben om de AI te maken die in hun zelfrijdende auto's zal draaien.

Nog iets over kunstmatige neurale netwerken en ML/DL.

Naast het gebruik van dergelijke technologie voor zelfrijdende auto's, kan dezelfde soort technologie worden gebruikt voor het programmeren van robots zoals de mensachtig ogende systemen zoals Bumble C en Optimus.

In totaal vertrouw ik erop dat u nu kunt zien hoe de drie grote onderwerpen van de Tesla AI Day met elkaar verband houden.

Er is een door Tesla gespecialiseerde supercomputer genaamd Dojo die de ontwikkeling en het testen van ML/DL/ANN's mogelijk maakt met behulp van grootschalige verwerkingsmogelijkheden. Die ML/DL/ANN's kunnen worden geprogrammeerd om als AI-aandrijfsysteem te dienen en dienovereenkomstig in Tesla-auto's worden gedownload. Bovendien kan de programmering voor de robotsystemen van Bumble C en Optimus eveneens op Dojo worden bedacht en in de robots worden gedownload. Dojo kan dubbel werk leveren. AI-ontwikkelaars die zijn toegewezen aan Autopilot en FSD kunnen Dojo gebruiken voor hun werkinspanningen. AI-ontwikkelaars die zijn toegewezen aan Bumble C en Optimus kunnen Dojo gebruiken voor hun inspanningen.

Zoals je zou kunnen raden, is er een potentiële overlap of synergie tussen de ML/DL/ANN-inspanningen van de AI-ontwikkelaars voor Autopilot/FSD en die van de Bumble C- en Optimus-activiteiten. Ik zal hier meer over zeggen, dus blijf op het puntje van je stoel.

U bent nu officieel aan boord met wat er aan de hand is en we kunnen in de details van Tesla AI Day 2022 duiken.

Gefeliciteerd dat je zo ver bent gekomen.

ENKELE BELANGRIJKE TAKEAWAYS VAN KWETSBAARHEDEN EN PROBLEMEN

Er is een hele reeks AI-gerelateerde problemen en zorgen die ontstonden bij het kijken naar de Tesla AI Day 2022.

Ik kan ze hier niet allemaal behandelen vanwege ruimtegebrek, dus laten we er op zijn minst een paar uitkiezen om in te graven.

In het bijzonder zijn hier vijf overkoepelende problemen die ik wil behandelen:

1) AI-gerelateerde wetten en juridische kwesties met betrekking tot intellectueel eigendom (IP)

2) AI-gerelateerde wetten die nieuw in de boeken komen, zoals COPPA

3) AI-ethiek en het robotica-probleem

4) AI-gerelateerde wetten voor zelfrijdende robots zijn niet hetzelfde voor lopende robots

5) Juridische blootstellingen van op elkaar aansluitende AI-teams voor zelfrijdende en lopende robots

Ik zal ze een voor een behandelen en dan een wrap-up doen.

AI WETTEN EN WETTELIJKE INTELLECTUELE EIGENDOMSRECHTEN

We zullen beginnen met een juridische verstrengeling die nog moet ontstaan, maar dat zou best opmerkelijk kunnen zijn.

Houd er eerst rekening mee dat Bumble C en Optimus werden tentoongesteld als vermoedelijk lopende robotsystemen die kunstmatige benen, voeten, armen, handen en een deel van de hoofdromp en een hoofdachtige structuur leken te hebben. Ze lijken dus op door mensen bedachte systemen die je in allerlei sci-fi-films hebt gezien.

Tijdens de presentaties kwam naar voren dat Bumble C semi-off-the-shelf componenten heeft. Dit is logisch omdat om snel een eerste prototype te bedenken, de snelste aanpak meestal bestaat uit het samenvoegen van andere reeds bekende en reeds bewezen elementen. Hierdoor ben je snel aan de slag. Het kost je tijd om eigen componenten te bedenken als je dat uiteindelijk wilt hebben.

De presentaties lijken ook te stellen dat Optimus was samengesteld uit schijnbaar overwegend inlandse of eigen componenten. Hoeveel van de getoonde Optimus dat overwicht heeft, was onduidelijk. Wat het ook had, de impliciete suggestie was dat het doel was om zo propriëtair mogelijk te zijn. Dit kan logisch zijn omdat het betekent dat u vrijwel volledige controle over de componenten kunt hebben en niet afhankelijk bent van een derde partij om ze te leveren.

So far, so good.

Er kan echter een beetje hapering langs de snoek komen.

Sta me toe het even uit te leggen.

Je bent je er misschien vaag van bewust dat Musk het gebruik van patenten, een vorm van Intellectueel Eigendom (IP), heeft bespot. Zijn recente tweets hebben aangegeven dat IP blijkbaar voor de zwakken is. Dit houdt in dat IP schijnbaar voornamelijk wordt gebruikt voor trollingdoeleinden. Bovendien impliceert de implicatie dat IP's zoals patenten de vooruitgang in technologie vertragen of belemmeren.

Gezien die filosofie die uitgaat van de top van Tesla, moeten we onszelf enkele voorzichtige vragen stellen.

Zal Tesla patenten aanvragen voor de gepatenteerde componenten van Bumble C en Optimus?

Als dat zo is, houdt dit dan niet in dat Tesla en Musk "zwak" zijn in dezelfde zin dat Musk anderen heeft bespot die IP-bescherming zoeken?

Als ze er niet op uit zijn om patenten voor de robotsystemen te krijgen, vraag je je af hoe ze zich zullen voelen als anderen soortgelijke looprobots gaan bedenken en dit doen door Bumble C en Optimus na te bootsen of ronduit te kopiëren. Zullen Tesla en Musk legaal achter degenen gaan die dat doen en beweren dat de componenten handelsgeheimen zijn en van beschermde aard zijn?

Of zouden ze de technologie kunnen patenteren en de patenten dan openlijk beschikbaar maken voor iedereen? Dit werd beschouwd als een belangrijk middel om de adoptie van EV's mogelijk te maken. Geldt hetzelfde voor robotsystemen?

Misschien nog alarmerend voor Tesla en Musk is de mogelijkheid dat ze inbreuk maken op andere robotsystemen die wel patenten en gevestigde IP's hebben.

Je zou redelijkerwijs kunnen vermoeden dat in het hectische tempo van de AI-ontwikkelaars en ingenieurs bij Tesla, ze niet per se zorgvuldig en bedachtzaam zoeken naar patenten om ervoor te zorgen dat hun componenten geen inbreuk maken op bestaande patenten. De kans is groot dat dit waarschijnlijk niet top of mind is, of zelfs als besproken wordt, wordt het mogelijk voor nu opzij gezet. Waarom zou u het nu uitstellen als u het potentiële juridische IP-probleem verder op kunt schuiven? Als je met harde deadlines wordt geconfronteerd, doe je het voor nu en ga je ervan uit dat iemand anders misschien over jaren de prijs zal betalen voor die huidige verwaarlozing.

Octrooien in overvloed bestaan ​​in de AI-ruimte. Er is een byzantijnse reeks patenten voor robothanden, robotarmen, robotbenen, robotvoeten, robottorso's, robotkoppen en dergelijke. Het is een juridisch mijnenveld. Ik ben een getuige-deskundige geweest in zaken met betrekking tot intellectuele eigendomsrechten op het gebied van AI en er is een enorme overvloed aan octrooien, samen met hun vaak overlappende karakter, wat een onheilspellend stukje territorium vormt.

Voor degenen onder u die patenten hebben op ledematen van robotica en andere componenten van lopende robotica, ga verder met het uitgraven ervan. Kijk eens goed naar Bumble C en Optimus. Zet uw IP-advocaten in de rij. Met elke dag die voorbijgaat, wordt er een goudmijn voor u gebouwd, een die, als deze afhankelijk is van uw IP, een nette uitbetaling zal zijn van een gigantisch bedrijf met glorieus diepe zakken.

Je kunt het stinkende label van 'zwak' van je afschudden terwijl je schitterend op weg bent naar de bank.

AI-WETGEVING EN GERELATEERDE JURIDISCHE COMPLICATIES DIE ER KOMEN

Je vraagt ​​je misschien af ​​waar Bumble C en Optimus voor zullen worden gebruikt. Aangezien Bumble C een snel en vuil prototype lijkt te zijn, laten we ons concentreren op Optimus, die wordt beschouwd als de voortdurende en toekomstige robot die bij Tesla zeer interessant is.

Waarvoor wordt Optimus gebruikt?

Volgens Musk heeft hij gesuggereerd dat we met dergelijke robots nooit meer een hand hoeven op te tillen of een karwei of fysiek werk hoeven te doen. Thuis kan de lopende robot het afval buiten zetten, je kleren in de wasmachine doen, je kleren opvouwen nadat ze uit de droger zijn gehaald, je avondeten klaarmaken en allerlei huishoudelijke klusjes doen.

Op de werkplek heeft Musk gesuggereerd dat dergelijke robots het werk aan de lopende band kunnen overnemen. Naast het werken in fabrieken of mogelijk zware werkomstandigheden, kunnen deze robots ook op kantoor werken. Tijdens de presentatie liet een korte videoclip van een kantooromgeving zien dat de robot een doos bewoog alsof hij de doos afleverde bij een mens die op kantoor werkte. We werden zelfs geplaagd door een korte videoclip van de robot die een plant water geeft in een kantooromgeving.

Ik weet zeker dat ieder van ons gemakkelijk een hele reeks manieren kan bedenken om een ​​lopende robot te gebruiken die een reeks functies heeft die vergelijkbaar zijn met die van mensen.

Ik heb een draai voor je.

Stel je voor dat Optimus in een huis wordt gebruikt. De robot voert huishoudelijke taken uit. We zouden natuurlijk aannemen dat Optimus een of andere vorm van gespreksinteractiviteit zal hebben, misschien zoals een Alexa of Siri. Zonder een levensvatbare manier om met de robot te communiceren, zou je het moeilijk hebben om hem comfortabel in je huishouden te laten rondlopen tussen jou, je partner, je kinderen, je huisdieren en dergelijke.

Voor degenen die online kijken, leken we niet op de hoogte te zijn van enige demonstratie van enige spreek- of conversatiecapaciteit van Optimus. Evenmin was er enige schijn van een indicatie van de verwerkingsmogelijkheden.

In plaats daarvan zagen we alleen Bumble C nauwelijks in staat zijn om het podium op te lopen (wankel, onzeker, en ik vermoed dat de ingenieurs hartstilstand veroorzaakten terwijl ze tot de robotgoden baden dat het verdomde ding niet zou instorten of amok maken) . Optimus werd op het podium geduwd of mishandeld. Er werd niet gelopen. We kregen te horen dat zogenaamd Optimus op het punt staat te kunnen lopen.

Een klassieke demo-ontwijking en ongelooflijk, inclusief dat het lijkt alsof veel van de conventionele nieuwsmedia erin hebben gekocht.

Overal dansende robots moeten zich schamen voor wat er op dat podium gebeurde.

Maar ik dwaal af. Terug naar Optimus die dienst doet als lopende robot in een alledaags huishouden en laten we aannemen dat er kinderen aanwezig zijn in deze woning.

Californië heeft onlangs een nieuwe wet aangenomen die bekend staat als de California Age-Appropriate Design Code Act (COPPA). Ik ga deze nieuwe wet in mijn column bespreken en je kunt er zeker van zijn dat andere staten binnenkort soortgelijke wetten zullen uitvaardigen. Dit is een wet die iedereen die AI bedenkt moet weten (nou, iedereen die een vorm van computergebruik bedenkt die in contact kan komen met kinderen, moet zich hiervan ook bewust zijn).

De kern van de wet is dat elk systeem waartoe kinderen toegang kunnen krijgen, moet voldoen aan bepalingen over het waarborgen van de privacyaspecten van het kind. Verschillende personeelsinformatie die een AI-systeem of een ander computersysteem over het kind kan verzamelen, moet voldoen aan specifieke gegevensprivacy en kinderrechten van kinderen. Sancties en andere juridische gevolgen voor het niet naleven van de wet zijn gespecificeerd.

Als Optimus wordt gebruikt in een huishouden dat kinderen bevat of kan bevatten, kan de robot gemakkelijk privégegevens over het kind verzamelen. Gesproken uitingen kunnen worden opgenomen. De locatie van het kind kan worden vastgelegd. Allerlei gedetailleerde informatie over het kind kon door de robot worden gedetecteerd.

Heeft het Optimus-team nagedacht over hoe zich te houden aan deze nieuwe wet en de opkomende overvloed aan nieuwe AI-wetten?

Nogmaals, dit staat waarschijnlijk laag op de prioriteitenlijst. Mijn punt is echter dat deze wet en andere AI-gerelateerde wetten als een lopend vuurtje opduiken. Een op AI gebaseerde lopende robot zal een wespennest van een horzel binnenlopen. Tesla kan hier nu advocaten voor inschakelen en anticiperen op wat er legaal gaat gebeuren, hopelijk proberen te voorkomen dat het in juridische moerassen terechtkomt en begeleiding bieden aan de AI-ontwikkelaars en ingenieurs, of het gebruikelijke technisch gerichte ding doen en gewoon afwachten wat er gebeurt (meestal alleen nadat ze in een juridisch moeras verstrikt zijn geraakt).

Betaal me nu, of betaal me later.

Techneuten denken er vaak niet aan om me nu te betalen en worden uiteindelijk verrast en betalen later.

AI ETHIEK EN HET ROBOTIC PROBLEEM

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die veel landen hebben geïdentificeerd en overgenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Er is een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Hebben Tesla en Elon Musk serieuze en toegewijde aandacht geschonken aan de AI-ethiek van een lopende robot?

Volgens wat tijdens de presentaties werd gezegd, is er blijkbaar tot nu toe slechts vluchtige aandacht aan de zaak besteed.

Musk werd tijdens de Q&A gevraagd of ze hebben gekeken naar de grote lijnen van wat lopende robots met de samenleving zullen doen. We weten allemaal al dat Musk herhaaldelijk heeft verklaard dat hij AI als een existentieel risico voor de mensheid beschouwt, zie mijn bericht op de link hier. Je zou zeker aannemen dat als iemand robots maakt die onder ons zullen lopen, en dat hij verwacht dat misschien miljoenen en miljoenen van deze robots zullen worden verkocht voor openbaar en privégebruik, dit natuurlijk de ethische AI-kwesties van de mensheid oproept.

Het antwoord op de vraag leek te suggereren dat de lopende inspanningen te voorbarig zijn om met name de mogelijkheden van AI Ethics te onderzoeken.

Dat is nog een andere klassieke en treurige technische reactie.

Veel AI-ontwikkelaars en ingenieurs beschouwen AI-ethiek als een bijzaak. Het is niet nodig om bestaande AI-werkinspanningen te verwarren. Gewoon vooruit blijven duwen. Op een dag, zeker, misschien zal AI Ethics de kop opsteken, maar tot die tijd is het heads-down en op volle kracht vooruit.

Helaas is een kop in het zand benadering van ethische AI ​​slecht nieuws voor iedereen. Zodra de AI, of in dit geval het robotsysteem, verder op het pad van ontwikkeling komt, zal het steeds moeilijker en duurder worden om AI Ethics-regels in het systeem te omarmen. Dit is een kortzichtige manier om met ethische AI-overwegingen om te gaan.

Stel dat ze wachten tot de lopende robot al bij mensen thuis wordt geplaatst. Op dat moment zijn de kansen op schade aan mensen toegenomen en naast het potentieel om schadelijke schade aan te richten, zal een bedrijf dat heeft gewacht tot de laatste stadia, geconfronteerd worden met enorme rechtszaken. Je kunt er zeker van zijn dat er lastige vragen zullen worden gesteld over waarom dit soort ethische AI-facetten niet de nodige aandacht heeft gekregen en waarom ze niet eerder in de levenscyclus van AI-ontwikkeling zijn behandeld.

Het feit dat Musk herhaaldelijk AI-ethische overwegingen naar voren heeft gebracht bij het bespreken van de existentiële risico's van AI, maakt dit schijnbare toezicht of gebrek aan huidige bezorgdheid over ethische AI ​​op zijn lopende robots een nog verleidelijker vraag.

De kennis van Musk maakt dit bijzonder verontrustend.

Sommige topmanagers weten niet eens dat er ethische AI-kwesties zijn die het hoofd moeten worden geboden - ik heb vurig gesproken over het belang van bedrijven die AI Ethics Boards oprichten, zie de link hier.

AI WETTEN VOOR ZELF RIJDEN ZIJN NIET HETZELFDE VOOR WANDELROBOTS

Ik noemde eerder dat bestaande Tesla's die Autopilot en FSD gebruiken op niveau 2 van autonomie zijn.

Dit is handig voor Tesla en Musk omdat ze kunnen vasthouden aan het idee dat, aangezien een niveau 2 een menselijke bestuurder vereist die actief aan het stuur zit, bijna alles wat het zelfrijdende AI-systeem doet, aan bewijs ontsnapt vanuit een verantwoordelijkheidsperspectief. Tesla en Musk kunnen alleen maar volhouden dat de menselijke bestuurder verantwoordelijk is voor het rijden.

Merk op dat dit niet het geval zal zijn voor Level 4 en Level 5, waarbij de automaker of wagenparkbeheerder, of iemand anders, zal moeten ingrijpen als de verantwoordelijke partij voor het handelen van een zelfrijdende auto.

Merk ook op dat deze bewering dat de menselijke bestuurder verantwoordelijk is tot nu toe alleen kan worden opgerekt op zowel niveau 2 als niveau 3, en we zullen binnenkort juridische zaken zien over hoe ver dat kan gaan.

Tijdens de presentatie werden verschillende punten naar voren gebracht dat het werk aan zelfrijdende AI-auto's gemakkelijk kan worden overgedragen of opnieuw kan worden toegepast op het gebied van lopende robots. Dit is enigszins waar. Dit is echter ook enigszins misleidend of in sommige gevallen een gevaarlijke weergave.

We kunnen beginnen met de voor de hand liggende overdracht van op AI gebaseerde visieverwerking. Zelfrijdende auto's maken gebruik van videocamera's om beelden en video's van de omgeving rond het voertuig te verzamelen. Het gebruik van ML/DL/ANN's wordt doorgaans gebruikt om rekenkundig patronen te vinden in de verzamelde gegevens. U zou dit doen om te bepalen waar de rijbaan is, waar andere auto's zijn, waar gebouwen zijn, enzovoort.

In theorie kun je dezelfde of vergelijkbare ML/DL/ANN's hergebruiken om te proberen te achterhalen wat een lopende robot tegenkomt. In een huishouden zou het robotvisiesysteem een ​​kamer scannen. De verzamelde video en beelden kunnen computationeel worden onderzocht om erachter te komen waar de deuren zijn, waar de ramen zijn, waar de bank is, waar mensen zijn, enz.

Lijkt verstandig.

Maar hier is de wending.

Voor die zelfrijdende auto's van niveau 2 is het rijden afhankelijk van een menselijke bestuurder. De wettelijke verantwoordelijkheid voor wat de auto doet, ligt over het algemeen op de schouders van de menselijke bestuurder. Bij een lopende robot is een dergelijke bescherming niet waarschijnlijk.

Met andere woorden, er is een lopende robot in huis. Ga er vanuit dat je als volwassene niet teleopereert met de robot. De robot beweegt vrij door het huis op basis van de AI die is ingesteld in de lopende robot.

De robot botst tegen een vissenkom. De vissenkom valt op de grond. Een kind in de buurt wordt helaas gesneden door rondvliegend glas. Gelukkig is het kind in orde en zijn de snijwonden gering.

Wie is verantwoordelijk voor wat er is gebeurd?

Ik durf te zeggen dat we het er redelijkerwijs allemaal over eens zijn dat de robot "fout" is doordat hij tegen de vissenkom botste (al het andere gelijk). Er is een voortdurend en verhit debat gaande over de vraag of we rechtspersoonlijkheid aan AI gaan toekennen en dus mogelijk AI verantwoordelijk kunnen houden voor slechte daden. Ik heb dat behandeld op de link hier.

In dit geval of scenario wil ik niet blijven hangen in de vraag of deze AI rechtspersoonlijkheid heeft. Ik ga zeggen dat dat niet zo is. We gaan ervan uit dat deze AI niet is gestegen tot een niveau van autonomie dat volgens ons een rechtspersoonlijkheid verdient.

De verantwoordelijke lijkt de maker van de lopende robot te zijn.

Wat hebben ze gedaan om de robot te bedenken om niet tegen dingen aan te botsen? Was het te voorzien dat de robot dit zou doen? Was er een fout in de robot die tot deze actie leidde? Steeds weer kunnen we ons juridisch afvragen wat er is gebeurd.

Hebben Tesla en Musk zich gerealiseerd dat de legale knipoog die ze met hun auto's maken waarschijnlijk niet zal worden overgedragen op de robots die ze willen maken?

Lopende robots zijn als het ware een ander dier.

Opnieuw doen zich juridische en ethische gevolgen voor.

JURIDISCHE BLOOTSTELLINGEN OM DE TEAMS TE SLUITEN

De presentaties suggereerden dat er veel cross-overs van het AI-zelfrijdende team plaatsvinden met het lopende robotica-team. Volgens mijn eerdere indicatie lijkt dit verstandig. Veel aspecten van de hardware en de software hebben overeenkomsten en u kunt net zo goed dubbele taken krijgen als u kunt. Bovendien kan dit hopelijk de robotica-kant versnellen, omdat het verwoed probeert op gang te komen vanuit een doodlopende start en de ambitieuze verklaringen van Musk in te halen.

Er is wel een wending.

Het lijkt alsof er altijd een wending is, maar aan de andere kant lijkt het leven zo te zijn.

Stel dat het zelfrijdende AI-team wordt uitgerekt om het lopende robotica-team te helpen. We kunnen ons zeker voorstellen dat dit gemakkelijk zou kunnen gebeuren. Hier zijn ze, met hun handen vol aan het proberen om Autopilot en FSD naar steeds hogere niveaus van autonomie te brengen, en ondertussen worden ze in het lopende robotica-team gerukt dat hun inspanningen voortstuwt.

In welke mate raakt het AI-zelfrijdende team afgeleid of overspannen door deze dubbele aandacht, en heeft dit invloed op de zelfrijdende ambities?

En niet alleen ambities, maar je kunt er logischerwijs op anticiperen dat burn-out door het zelfrijdende team ertoe kan leiden dat bugs in het zelfrijdende systeem kruipen. Misschien deden ze niet de drievoudige controle die ze gewoonlijk deden. Misschien hebben ze feedback gekregen van het team van lopende robotica en hebben ze de zelfrijdende code gewijzigd, hoewel deze verandering misschien niet zo goed getest en gemeten was als zou moeten.

Kortom, iedereen die Tesla wil aanklagen wegens zelfrijdende auto's, zou nu een uitgelezen kans hebben om te beweren dat alle problemen die zouden kunnen worden geclaimd of gevonden in Autopilot of FSD er niet zouden zijn geweest zonder de genomen managementbeslissing om de twee op elkaar af te stemmen. anders ongelijksoortige teams om samen te werken.

Stel je voor hoe dat eruit zou zien voor een jury.

Het zelfrijdende team zoefde mee en richtte zich volledig op het zelfrijdend rijden. Ze werden vervolgens overgesleept in deze nieuwe lopende robotica-inspanning. De stelling zou kunnen zijn dat dit heeft geleid tot fouten en omissies aan de zelfrijdende kant. Het bedrijf wilde ook zijn taart en glazuur hebben, maar spleet uiteindelijk de taart en een deel van het glazuur viel op de grond.

We weten niet dat dovetailing dergelijke kwetsbaarheden heeft gecreëerd. Het is gewoon een mogelijkheid. Voor scherpe advocaten die achter Tesla aan willen gaan aan de zelfrijdende kant, wordt de deur geopend om een ​​juridische opening te bieden.

CONCLUSIE

Veel eye-rolling was het gevolg van de Tesla AI Day 2022.

Musk gaf bijvoorbeeld aan dat de lopende robots in de orde van twee keer de economische output zullen produceren in vergelijking met mensen. Hij volgde zelfs die bewering door te zeggen dat de lucht de limiet is voor de productiviteitsmogelijkheid.

Waar zijn de definitieve cijfers die de tweevoudige of N-voudige productiviteitsverbeteringen transparant kunnen belichten?

Ik zeg niet dat de twee tijden of N-tijden verkeerd zijn. Het probleem is dat dergelijke ongefundeerde beweringen die uit de lucht komen vallen verder pure overdrijving zijn totdat er een substantie is om die beweringen te staven. Het bijzonder zorgwekkende aspect is dat verslaggevers melden dat hij dergelijke beweringen heeft gedaan, en die beweringen zullen op hun beurt geleidelijk worden herhaald en herhaald totdat het "feitelijk" wordt en niemand zich realiseert dat het misschien uit de losse pols is verzonnen.

Een andere eye-rolling statement was dat Musk zei dat de lopende robots ongeveer $ 20,000 zouden kunnen kosten.

Ten eerste, als dat het geval blijkt te zijn, is dat opmerkelijk gezien de waarschijnlijke kosten van de componenten en de kosten die gepaard gaan met de ontwikkeling en fielding van de lopende robots, plus vermoedelijk een behoefte aan een nette winst. Hoe kwam hij aan het nummer? Omdat het goed klinkt of omdat het gebaseerd was op een gedegen analyse?

Ook weten we het nog niet en is er ook geen discussie geweest over het onderhoud van deze looprobots. Het onderhoud van een auto is heel wat anders dan het onderhoud van een lopende robot. Hoe komt de robot op de onderhoudslocatie die nodig is, gezien het omvangrijke formaat en het gewicht? Moeten menselijke onderhoudsmedewerkers bij u thuis komen om het onderhoud te doen? Hoeveel gaat het onderhoud kosten? Welke verwachte onderhoudsfrequentie is nodig?

Stel dat de kosten $ 20,000 zijn of vergelijkbaar met dat cijfer. Ik weet zeker dat voor Musk de $ 20,000 zakgeld lijkt. Hoeveel mensen konden het zich veroorloven om zo'n lopende robot te kopen voor het prijskaartje van $ 20,000? Ik durf te zeggen, niet veel. Je zou kunnen proberen te beweren dat het de kosten van een auto zijn (een goedkopere auto). Maar een auto heeft schijnbaar veel meer nut dan een lopende robot.

Met een auto kun je naar je werk gaan en geld verdienen om je rekeningen te betalen. U kunt een auto gebruiken om uw boodschappen te halen. Met een auto kunt u naar een ziekenhuis gaan of een uitstapje maken voor de lol. Een lopende robot die je planten in je huis water geeft of die je lakens voor je maakt, lijkt niet helemaal hetzelfde gewaardeerde nut te hebben.

Ter verduidelijking, ja, er zouden veel mensen met een hoger inkomen zijn die het zich zouden kunnen veroorloven om een ​​lopende robot in huis te hebben. In die zin zou er zeker een markt zijn voor lopende robots. De vraag is echter of dit in onze samenleving rechtvaardig zal zijn. Zijn er misschien mensen die lopende robots kunnen betalen en mensen die dat niet kunnen?

We zouden ook redelijkerwijs kunnen betwijfelen of lopende robots hetzelfde gevoel van maatschappelijk respect en oprechte steun zouden krijgen als EV's. Je kunt EV's verkopen door te benadrukken dat het het milieu helpt in vergelijking met conventionele auto's. De overheid kan daartoe ook prikkels geven. Geldt dat ook voor lopende robots? Lijkt me moeilijker te verkopen.

Nog een paar opmerkingen en we sluiten deze discussie voor nu.

Een opmerkelijk oogrollen over de lopende robots brengt de ongegeneerde antropomorfisering van de robots met zich mee.

Antropomorfisering verwijst naar de uitbeelding van AI als vergelijkbaar met mensen. Mensen kunnen voor de gek gehouden worden door te denken dat AI kan doen wat mensen kunnen, mogelijk zelfs verder gaan dan wat mensen kunnen. Die mensen die zo bedrogen zijn, zullen dan waarschijnlijk in een moeilijke situatie terechtkomen. Ze gaan ervan uit dat AI kan presteren zoals mensen dat kunnen.

Toen de Bumble C het podium op liep, zwaaide hij met zijn armen. Het zwaaien met de arm was precies wat je van een mens zou verwachten. Je eerste instinctieve reactie is ongetwijfeld dat de lopende robot aan het 'denken' was en zich realiseerde dat hij een podium op liep voor de ogen van mensen en camera's. De robot besloot dat het beleefd en sociaal zou zijn om naar de vergadering te zwaaien.

Ik verzeker je dat de robot op geen enkele manier van menselijk denken 'dacht'.

Voor zover we weten, was er een operator die ergens in de buurt stond of misschien op afstand werkte die de armen van de robot bestuurde. In die zin had de robot geen software die de armen bedient.

Stel dat er software was die de armen bedient. De software was waarschijnlijk extreem simplistisch dat, eenmaal geactiveerd, de armen zouden worden geheven, gezwaaid en dit voor een korte periode zou worden gedaan. Het is hoogst onwaarschijnlijk dat de software bestond uit een beeldverwerkingssysteem dat videobeelden van het publiek vastlegde en vervolgens een computationele "redenering" maakte om ervoor te kiezen om met de armen van de robot te zwaaien.

Mijn punt is dat het laten zwaaien van de lopende robot een valse of misleidende weergave is van wat de robot werkelijk kan doen, en dat het mensen voor de gek houdt door aan te nemen dat de robot op een mens lijkt. Ik heb trouwens dezelfde zorgen geuit over de dansende robots. Het is schattig en haalt de krantenkoppen met wuivende robots en dansende robots. Helaas overdrijft het ook wat deze robots eigenlijk kunnen doen.

Het verwijzen naar de processor van de lopende robots als een Bot Brain is nog een ander voorbeeld van antropomorfisering. Die processors zijn geen hersenen in de zin van menselijke hersenen. Het is een verkeerde toe-eigening van bewoordingen.

Je zou nu kunnen uitroepen dat iedereen of in ieder geval velen in AI antropomorfisering gebruiken om te proberen op te vallen en ervoor te zorgen dat hun AI lof en aandacht krijgt. Ja, ik zou het met je eens zijn. Betekent dat echter dat twee fouten een recht worden? Ik denk het niet. Het is nog steeds een slechte benadering en we moeten proberen de populariteit ervan in te perken of op zijn minst te verminderen. Dit is weliswaar hetzelfde als een forse rotsblok op een steile en nooit eindigende heuvel duwen.

Laten we nu een laatste opmerking maken over dit onderwerp.

Elon Musk heeft eerder dit gezegd over waar AI naartoe gaat: "Let op mijn woorden, AI is veel gevaarlijker dan kernwapens ... waarom hebben we geen regelgevend toezicht?" Hij deed soortgelijke uitspraken tijdens de Tesla AI Day.

Ik ben het met hem eens over het hebben van regelgevend toezicht, hoewel ik een beetje verduidelijking toevoeg dat het de... juiste soort van regelgevend toezicht. Ik heb regelgevend toezicht op zich genomen over AI die jammerlijk de plank mis slaat, zoals uitgelegd op de link hier.

Men hoopt dat Tesla en Musk niet alleen de komst van verstandige en juiste wetten over AI zullen steunen, maar dat ze ook een voortrekker zullen zijn om het belang van zowel zachte wetten zoals AI-ethiek als harde wetten die in de boeken staan ​​te demonstreren.

Zoals wijze wijsheid ons vertelt, dienen onze woorden als een lamp om onze voeten te leiden en een baken licht te smeden voor het pad dat voor ons ligt.

Dat over dekt dingen.

Bron: https://www.forbes.com/sites/lanceeliot/2022/10/02/five-key-ways-that-ai-ethics-and-ai-laws-reveal-troubling-concerns-for-teslas- ai-day-showcase-en-de-steeds groeiende-ai-ambities-van-elon-musk/