AI-ethiek en AI-wetgeving kunnen worden aangespoord en geprikkeld tot het verplicht stellen van veiligheidswaarschuwingen voor alle bestaande en toekomstige AI

Uw dagelijkse activiteiten worden ongetwijfeld gebombardeerd met duizend of meer voorzorgswaarschuwingen van een of andere soort.

Probeer deze voor maat:

  • Een veiligheidsbril moet te allen tijde worden gedragen
  • Gevaar: Gevaarlijke chemicaliën in de buurt
  • Hoogspanning – Buiten houden
  • Waarschuwing: Wees je bewust van je omgeving
  • Objecten in de spiegel zijn dichterbij dan ze lijken
  • Verwijder het kind voor het opvouwen (zoals vermeld op kinderwagens)
  • Let op: zorg ervoor dat u dit bericht negeert

De meeste daarvan zijn handige en doordachte tekens of labels die dienen om ons hopelijk veilig te houden.

Houd er rekening mee dat ik een paar "uitbijters" op de lijst heb geslopen om enkele opmerkelijke punten te maken.

Sommige mensen vinden het bijvoorbeeld gek dat kinderwagens een etiket hebben dat je waarschuwt de kinderwagen niet op te vouwen terwijl de baby nog in het apparaat zit. Hoewel het teken zeker gepast en plichtsgetrouw nuttig is, lijkt het erop dat gezond verstand al voldoende zou zijn.

Welke persoon zou niet uit eigen bewuste wil beseffen dat ze eerst de baby moeten verwijderen?

Welnu, anderen benadrukken dat dergelijke labels een belangrijk doel dienen. Ten eerste kan iemand zich er echt niet van bewust zijn dat hij de baby moet verwijderen voordat hij de kinderwagen opvouwt. Misschien ging de persoon ervan uit dat de kinderwagen zo slim was ontworpen dat het opvouwen de baby niet zou schaden. Of mogelijk zijn er ingebouwde veiligheidsvoorzieningen die het opvouwen voorkomen wanneer er een kind in de kinderwagen zit. Enz.

Het kan ook zijn dat de persoon afgeleid was en gedachteloos de kinderwagen zou hebben opgevouwen, met baby en al, maar het label bracht de persoon gelukkig ertoe dit niet te doen (sommigen zouden beweren dat het onwaarschijnlijk lijkt dat zo'n persoon het label zou opmerken hoe dan ook). Er is ook het feit dat iemand de maker van de kinderwagen zou kunnen aanklagen als zo'n label niet aanwezig was. Je kunt je een van die forse rechtszaken voorstellen waarbij een baby gewond raakte en de ouder besloot een miljoen dollar te verdienen omdat er geen waarschuwingsbord op de kinderwagen was geplaatst. Het kinderwagenbedrijf zou spijt hebben dat het niet de paar centen had uitgegeven die nodig waren om de waarschuwingsborden op hun kinderwagens te maken en te plakken.

Kijk ook eens goed naar de laatste van de waarschuwingsberichten die ik hierboven had vermeld.

Ik heb ervoor gekozen om het smarmy-bericht te plaatsen om ervoor te zorgen dat het bericht wordt genegeerd, omdat er tegenwoordig veel valse waarschuwingslabels zijn die mensen kopen of maken voor de lol. Deze is een echte filosofische mind-bender. Als u de waarschuwing leest waarin staat dat u de waarschuwing moet negeren, wat moet u dan precies doen nadat u de waarschuwing hebt gelezen? Je hebt het al gelezen, dus het zit schijnbaar in je hoofd. Natuurlijk kun je het negeren, maar nogmaals, je wordt helemaal niet geadviseerd over wat je zou moeten negeren. Rond en rond, deze grap gaat.

Natuurlijk zijn bonafide waarschuwingslabels meestal niet grappig of grappig van aard.

We moeten waarschuwingen heel serieus nemen.

Meestal, als u zich niet aan een bekende waarschuwing houdt, doet u dit op persoonlijk zwaar risico. En het kan ook zijn dat als u de waarschuwing niet in acht neemt en niet naleeft, u mogelijk ook anderen in gevaar brengt. Denk aan het autorijden. Op het moment dat u achter het stuur van een auto zit, kunnen uw acties als bestuurder uzelf schaden, plus u kunt uw passagiers schaden, en u kunt anderen schaden, zoals mensen in andere auto's of voetgangers in de buurt. In die zin is een waarschuwing niet alleen in uw voordeel, maar waarschijnlijk ook in het voordeel van anderen.

Waarom behandel ik deze facetten van waarschuwingen en waarschuwingslabels?

Omdat sommigen heftig beweren dat we waarschuwings- en waarschuwingssignalen nodig hebben over de hedendaagse kunstmatige intelligentie (AI).

Eigenlijk is het de bedoeling om dergelijke labels ook op de AI van vandaag en toekomstige AI te plakken. Al met al zou alle AI uiteindelijk een of andere vorm of variant van een waarschuwing of waarschuwende indicatie hebben.

Goed idee of slecht idee?

Praktisch of onpraktisch?

Laten we het concept uitpakken en kijken wat we ervan kunnen maken.

Ik wil eerst een essentiële basis leggen over AI en in het bijzonder AI-ethiek en AI-wetgeving, om ervoor te zorgen dat het onderwerp AI-waarschuwingen contextueel zinvol is. Voor degenen onder u die over het algemeen geïnteresseerd zijn in ethische AI ​​en ook in AI-wetgeving, zie mijn uitgebreide en doorlopende berichtgeving op: de link hier en de link hier, om er een paar te noemen.

Het toenemende bewustzijn van ethische AI ​​en ook AI-wetgeving

Het recente tijdperk van AI werd aanvankelijk gezien als AI voorgoed, wat betekent dat we AI kunnen gebruiken voor de verbetering van de mensheid. Op de hielen van AI voorgoed kwam het besef dat we ook ondergedompeld zijn in AI voor slecht. Dit omvat AI die is bedacht of zelf is veranderd om discriminerend te zijn en die computationele keuzes maakt die onnodige vooroordelen veroorzaken. Soms is de AI op die manier gebouwd, terwijl hij in andere gevallen in dat ongewenste gebied terechtkomt.

Ik wil er ruimschoots zeker van zijn dat we op dezelfde lijn zitten over de aard van de AI van vandaag.

Er is tegenwoordig geen AI die bewust is. Wij hebben dit niet. We weten niet of bewuste AI mogelijk zal zijn. Niemand kan treffend voorspellen of we bewuste AI zullen bereiken, noch of bewuste AI op de een of andere manier op wonderbaarlijke wijze spontaan zal ontstaan ​​in een vorm van computationele cognitieve supernova (meestal aangeduid als de singulariteit, zie mijn bericht op de link hier).

Het type AI waar ik me op richt, bestaat uit de niet-bewuste AI die we vandaag hebben. Als we wild zouden speculeren over bewuste AI, zou deze discussie een radicaal andere richting kunnen uitgaan. Een bewuste AI zou van menselijke kwaliteit zijn. Je zou moeten bedenken dat de bewuste AI het cognitieve equivalent is van een mens. Sterker nog, aangezien sommigen speculeren dat we misschien superintelligente AI hebben, is het denkbaar dat dergelijke AI uiteindelijk slimmer zou kunnen zijn dan mensen (voor mijn verkenning van superintelligente AI als een mogelijkheid, zie de dekking hier).

Ik zou sterk willen voorstellen dat we de zaken nuchter houden en rekening houden met de computationele niet-bewuste AI van vandaag.

Realiseer je dat de AI van vandaag op geen enkele manier kan 'denken' op dezelfde manier als het menselijk denken. Wanneer je met Alexa of Siri communiceert, lijken de gesprekscapaciteiten misschien verwant aan menselijke capaciteiten, maar de realiteit is dat het computationeel is en geen menselijke cognitie heeft. Het nieuwste tijdperk van AI heeft uitgebreid gebruik gemaakt van Machine Learning (ML) en Deep Learning (DL), die gebruikmaken van computationele patroonherkenning. Dit heeft geleid tot AI-systemen die de schijn hebben van mensachtige neigingen. Ondertussen is er tegenwoordig geen enkele AI die een schijn van gezond verstand heeft en evenmin de cognitieve verwondering van robuust menselijk denken.

Wees heel voorzichtig met het antropomorfiseren van de hedendaagse AI.

ML/DL is een vorm van computationele patroonvergelijking. De gebruikelijke aanpak is dat je gegevens verzamelt over een beslissingstaak. Je voert de data in in de ML/DL computermodellen. Die modellen proberen wiskundige patronen te vinden. Na het vinden van dergelijke patronen, indien gevonden, zal het AI-systeem die patronen gebruiken bij het tegenkomen van nieuwe gegevens. Bij de presentatie van nieuwe gegevens worden de patronen op basis van de "oude" of historische gegevens toegepast om een ​​actuele beslissing te nemen.

Ik denk dat je wel kunt raden waar dit naartoe gaat. Als mensen die het patroon van beslissingen hebben genomen, ongewenste vooroordelen hebben opgenomen, is de kans groot dat de gegevens dit op subtiele maar significante manieren weerspiegelen. Machine Learning of Deep Learning computationele patroonvergelijking zal eenvoudig proberen de gegevens dienovereenkomstig wiskundig na te bootsen. Er is geen schijn van gezond verstand of andere bewuste aspecten van AI-crafted modellering op zich.

Bovendien realiseren de AI-ontwikkelaars zich misschien ook niet wat er aan de hand is. De mysterieuze wiskunde in de ML/DL kan het moeilijk maken om de nu verborgen vooroordelen op te sporen. Je zou terecht hopen en verwachten dat de AI-ontwikkelaars zouden testen op de mogelijk begraven vooroordelen, hoewel dit lastiger is dan het lijkt. Er bestaat een solide kans dat zelfs bij relatief uitgebreide testen dat er nog steeds vooroordelen zullen zijn ingebed in de patroonafstemmingsmodellen van de ML/DL.

Je zou een beetje het beroemde of beruchte adagium van garbage-in garbage-out kunnen gebruiken. Het punt is dat dit meer lijkt op vooroordelen, die verraderlijk doordrenkt raken als vooroordelen die ondergedompeld zijn in de AI. De algoritmebesluitvorming (ADM) van AI wordt axiomatisch beladen met ongelijkheden.

Niet goed.

Dit alles heeft met name belangrijke implicaties voor AI-ethiek en biedt een handig venster op de geleerde lessen (zelfs voordat alle lessen zijn getrokken) als het gaat om het proberen om AI wetgeving te maken.

Naast het gebruik van AI-ethische voorschriften in het algemeen, is er een overeenkomstige vraag of we wetten moeten hebben om verschillende toepassingen van AI te regelen. Op federaal, staats- en lokaal niveau worden nieuwe wetten rondgestrooid die betrekking hebben op het bereik en de aard van hoe AI moet worden ontworpen. De inspanning om dergelijke wetten op te stellen en uit te voeren, is een geleidelijke. AI-ethiek dient op zijn minst als een weloverwogen noodoplossing en zal vrijwel zeker tot op zekere hoogte rechtstreeks worden opgenomen in die nieuwe wetten.

Houd er rekening mee dat sommigen onvermurwbaar beweren dat we geen nieuwe wetten nodig hebben die AI omvatten en dat onze bestaande wetten voldoende zijn. Ze waarschuwen vooraf dat als we een aantal van deze AI-wetten invoeren, we de gouden gans zullen doden door de vooruitgang in AI die enorme maatschappelijke voordelen biedt, in te dammen.

In eerdere columns heb ik de verschillende nationale en internationale inspanningen besproken om wetten te maken en uit te vaardigen die AI reguleren, zie de link hier, bijvoorbeeld. Ik heb ook de verschillende AI-ethiekprincipes en -richtlijnen behandeld die verschillende landen hebben geïdentificeerd en aangenomen, waaronder bijvoorbeeld de inspanningen van de Verenigde Naties, zoals de UNESCO-reeks AI-ethiek die bijna 200 landen hebben aangenomen, zie de link hier.

Hier is een handige keystone-lijst van ethische AI-criteria of kenmerken met betrekking tot AI-systemen die ik eerder nauwkeurig heb onderzocht:

  • Transparantie
  • Gerechtigheid & Eerlijkheid
  • Niet-kwaadaardigheid
  • Verantwoordelijkheid
  • Privacy
  • Weldadigheid
  • Vrijheid & Autonomie
  • Trust
  • Duurzaamheid
  • Waardigheid
  • Solidariteit

Die AI Ethics-principes worden serieus verondersteld te worden gebruikt door AI-ontwikkelaars, samen met degenen die AI-ontwikkelingsinspanningen beheren, en zelfs degenen die uiteindelijk het onderhoud aan AI-systemen uitvoeren en uitvoeren.

Alle belanghebbenden gedurende de gehele AI-levenscyclus van ontwikkeling en gebruik worden beschouwd in het kader van het naleven van de gevestigde normen van ethische AI. Dit is een belangrijk hoogtepunt, aangezien de gebruikelijke veronderstelling is dat "alleen codeurs" of degenen die de AI programmeren, onderworpen zijn aan het naleven van de AI-ethische noties. Zoals eerder hierin is benadrukt, is er een dorp nodig om AI te bedenken en in de praktijk te brengen, en waarvoor het hele dorp vertrouwd moet zijn met en zich moet houden aan de ethische voorschriften van AI.

Ik heb onlangs ook gekeken naar de AI Bill van rechten wat de officiële titel is van het officiële document van de Amerikaanse regering getiteld "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People", dat het resultaat was van een jarenlange inspanning van het Office of Science and Technology Policy (OSTP ). De OSTP is een federale entiteit die dient om de Amerikaanse president en het US Executive Office te adviseren over verschillende technologische, wetenschappelijke en technische aspecten van nationaal belang. In die zin kun je zeggen dat deze AI Bill of Rights een document is dat is goedgekeurd door en onderschreven door het bestaande Amerikaanse Witte Huis.

In de AI Bill of Rights zijn er vijf keystone-categorieën:

  • Veilige en effectieve systemen
  • Algoritmische discriminatiebescherming
  • Data Privacy
  • Opmerking en uitleg
  • Menselijke alternatieven, overweging en terugval

Ik heb die voorschriften zorgvuldig doorgenomen, zie je? de link hier.

Nu ik een nuttige basis heb gelegd over deze gerelateerde AI-ethiek en AI-rechtsonderwerpen, zijn we klaar om in het onstuimige onderwerp te duiken of AI al dan niet waarschuwingslabels zou moeten hebben.

Bereid je voor op een informatieve reis die je ogen opent.

Waarschuwingslabels op AI plakken als middel om de mensheid te beschermen

Er is een groeiende buzz gaande dat AI misschien met een of andere waarschuwing zou moeten komen.

In een recent artikel in bijvoorbeeld MIT Technology Review waarin de toenemende belangstelling voor het doen van audits van AI werd besproken, ontstond het idee om waarschuwingssignalen te geven: “De groei van deze audits suggereert dat we op een dag mogelijk waarschuwingen in sigarettenpakjes zullen zien dat AI-systemen je gezondheid en veiligheid kunnen schaden. Andere sectoren, zoals chemie en voeding, hebben regelmatig audits om ervoor te zorgen dat producten veilig in gebruik zijn. Zou zoiets de norm kunnen worden in AI?” (MIT Technology Review, Melissa Heikkilä, 24 oktober 2022).

Laten we een beetje in het algemeen praten over waarschuwings- en waarschuwingsborden.

We zijn allemaal al algemeen bekend met waarschuwings- en waarschuwingsborden op tal van producten en diensten van alledag. Soms zijn de veiligheidsborden wettelijk verplicht, in andere gevallen is er discretie over het gebruik van dergelijke borden. Daarnaast zijn sommige veiligheidssymbolen gestandaardiseerd, zoals gespecificeerd volgens de ANSI Z535-standaard en de OSHA 1910.14-standaard. Die normen hebben betrekking op aspecten als de bewoordingen van het teken, de gebruikte kleuren en lettertypen, de vorm van het teken en verschillende andere bijzonderheden.

Het is logisch om normen te hebben voor dergelijke waarschuwingssignalen. Telkens wanneer u een dergelijk teken ziet en het voldoet aan de gestelde normen, is de kans groter dat u gelooft dat het teken legitiem is, en dat u minder cognitieve verwerking nodig heeft om het teken te analyseren en te begrijpen. Voor tekens die geen gestandaardiseerde benadering hebben, moet u vaak mentaal berekenen wat het teken u vertelt, misschien verliest u kostbare tijd om actie te ondernemen of u kunt het teken volledig verkeerd beoordelen en de waarschuwing niet goed begrijpen.

Er kan een reeks van dergelijke tekens bestaan, waarvoor ze vaak ongeveer als volgt worden ingedeeld:

  • Gevaarsteken: grootste zorg en indicatief voor een onmiddellijk gevaar met waarschijnlijk ernstige gevolgen
  • Waarschuwingsteken: Aanduiding van een gevaar dat kleiner is dan "gevaar", maar nog steeds behoorlijk ernstig
  • Waarschuwingsteken: indicatief voor een potentieel gevaar dat minder is dan een "waarschuwing" maar toch inderdaad ernstig is
  • Meldingsteken: indicatief voor een informatieve waarschuwing die minder is dan "voorzichtigheid" maar toch zorgwekkende aspecten met zich meebrengt

Gezien de voorgaande achtergrond over waarschuwingen en waarschuwingssignalen, kunnen we doorgaan en proberen dit contextueel toe te passen op het gebruik van AI.

Ten eerste kunnen we het er op de een of andere manier over eens zijn dat de AI-signage in een vergelijkbaar bereik van ernst kan zijn als gebruikelijk is bij alledaagse tekens, zodat:

  • AI Gevaarsteken: AI van de grootste zorg en indicatief voor een onmiddellijk gevaar met waarschijnlijk ernstige gevolgen
  • AI-waarschuwingsbord: AI indicatief voor een gevaar dat minder is dan "gevaar", maar nog steeds behoorlijk ernstig
  • AI Waarschuwingsteken: AI indicatief voor een potentieel gevaar dat minder is dan een "waarschuwing" maar toch inderdaad ernstig
  • AI-meldingsteken: AI duidt op een informatieve waarschuwing die minder is dan "voorzichtigheid", maar toch zorgwekkende aspecten met zich meebrengt

De kern is dat niet alle AI even verontrustend zal zijn. Het kan zijn dat een AI enorme risico's met zich meebrengt of slechts marginale risico's heeft. Dienovereenkomstig moet de bewegwijzering weergeven wat wat is. Als alle AI-waarschuwingen of waarschuwingssignalen eenvoudigweg van hetzelfde kaliber zouden zijn, zouden we vermoedelijk niet weten of niet weten of we ons grote zorgen moeten maken of slechts een beetje bezorgd moeten zijn over AI. Het gebruik van een getypeerd formuleringsschema kan het leven gemakkelijker maken bij het zien en interpreteren van AI-gerelateerde waarschuwingssignalen.

Je vraagt ​​je misschien af ​​wat de tekens nog meer zouden zeggen in termen van de details van de boodschap die moet worden overgebracht.

Dat is zeker een moeilijkere zaak om aan te pakken. De AI-mogelijkheden om dingen te doen die als onveilig of zorgwekkend worden beschouwd, zouden enorm groot zijn, bijna eindeloos. Kunnen we ze samenvatten in een routinematige reeks die elk in slechts een handvol woorden wordt gespeld? Of moeten we rekening houden met een meer vrije benadering van hoe de formulering zal gaan?

Ik laat je nadenken over die open vraag.

Verderop zien we vaak waarschuwingsborden op objecten. Een AI-systeem is niet noodzakelijkerwijs een 'object' in dezelfde zin als het gebruikelijk aanbrengen van tekens. Dit roept de vraag op waar de AI-waarschuwingsborden zullen worden gepresenteerd.

Het kan zijn dat wanneer u een app gebruikt op bijvoorbeeld uw smartphone, er een bericht wordt weergegeven dat de AI-gerelateerde waarschuwing bevat als deze AI gebruikt. De app zou je waarschuwen voor het onderliggende gebruik van AI. Dit kan een pop-upbericht zijn of op verschillende visuele en zelfs auditieve manieren worden gepresenteerd.

Er is ook de situatie dat u een service gebruikt die wordt ondersteund door AI, hoewel u mogelijk niet rechtstreeks communiceert met de AI. U kunt bijvoorbeeld een gesprek voeren met een menselijke makelaar over het krijgen van een hypotheek, waarbij de makelaar in stilte achter de schermen een AI-systeem gebruikt om hun inspanningen te begeleiden.

We moeten dus anticiperen dat de AI-waarschuwingssignalen aanwezig moeten zijn in beide AI-gebruiksgevallen, zodat:

  • Productspecifieke AI: AI als product zou duidelijke AI-waarschuwings- of waarschuwingssignalen moeten hebben
  • Servicegerichte AI: AI as a service (direct of indirect) zou AI-waarschuwings- of waarschuwingssignalen moeten hebben

Sceptici zouden zeker snel suggereren dat het AI-waarschuwingsbord misschien op slinkse wijze wordt vermomd door de app-maker, zodat de waarschuwing niet bijzonder merkbaar is. Misschien verschijnt de waarschuwing heel even en merkt u echt niet dat deze werd getoond. Een andere geniepige truc zou zijn om er een soort spel van te maken, schijnbaar de ernst van de waarschuwing te ondermijnen en mensen te laten denken dat de waarschuwing onbelangrijk is.

Ja, je kunt er vrijwel zeker van zijn dat alle AI-gerelateerde waarschuwingssignalen zullen worden misleid en gebruikt op manieren die niet passen in de geest en bedoeling van de waarschuwende berichten die ze zouden moeten overbrengen.

Al die scepsis sluit aan bij de vraag of we AI-ethiek zouden gebruiken als "zachte wetten" om te proberen AI-gerelateerde waarschuwingen en waarschuwingen vooruit te helpen, of dat we gebruik zouden maken van "harde wetten", inclusief uitgevaardigde wetten met steun van de rechtbank. In theorie zou de zachte wet-push een grotere schijn van spelen met de zaak mogelijk maken, terwijl wetten op de boeken zouden komen met het potentieel voor handhaving door de overheid en grotere strengheid voortbrengen.

Een andere zorg is of de AI-signalering sowieso enig verschil zou maken.

Veel onderzoek naar consumentengedrag leidt vaak tot onduidelijke resultaten als het gaat om het verstrekken van waarschuwingslabels aan consumenten. Soms zijn de waarschuwingen effectief, soms niet. Laten we een deel van dat onderzoek toepassen op de AI-context.

Overweeg deze facetten:

  • Detectie: Zouden degenen die AI gebruiken die een levensvatbaar AI-waarschuwingsbord bevat, actief opmerken of detecteren dat het bord aan hen wordt getoond (ervan uitgaande dat dergelijke bewegwijzering is opgetreden)?
  • Begrip: Voor degenen die het wel hebben opgemerkt, zouden ze begrijpen of begrijpen wat het AI-waarschuwingsbord hen probeert te suggereren?
  • Actie: Voor degenen die die mentale sprong maken, zal het AI-waarschuwingsbord hen aanzetten tot actie of anderszins dienen om hun gedrag dienovereenkomstig te sturen?

Je kunt erop anticiperen dat als het momentum toeneemt voor het hebben van AI-waarschuwingssignalen, onderzoekers de zaak nauwkeurig gaan bestuderen. Het idee zou zijn om te helpen verduidelijken onder welke omstandigheden de waarschuwingen nuttig zijn en wanneer niet. Dit heeft weer te maken met het design en de look en feel. We zouden ook kunnen verwachten dat het grote publiek moet worden voorgelicht of geïnformeerd over de opkomst van deze AI-waarschuwings- en waarschuwingssignalen, zodat ze eraan gewend raken.

Er zijn veel wendingen om te overwegen.

Moet het AI-waarschuwings- of waarschuwingsteken alleen verschijnen aan het begin van de app die wordt gebruikt? Misschien is het uitgangspunt op zich niet voldoende. Een persoon zou op het eerste gezicht kunnen denken dat de app gewoon op veilig speelt door een waarschuwing te gebruiken, en dus niet veel aandacht schenken aan de waarschuwing. Zodra de persoon halverwege is met het gebruik van de app, is misschien een aanvullende waarschuwing gerechtvaardigd. Op dat moment is de persoon zich meer bewust van wat de app aan het doen is en is hij mogelijk de eerder aangegeven waarschuwingsmelding al vergeten.

De AI-waarschuwing of waarschuwing kan dan optreden:

  • Voor het starten van de app en net als de app op het punt staat te worden aangeroepen
  • Gepresenteerd zodra de app is gestart en alleen op het startpunt
  • Getoond aan het begin en opnieuw halverwege
  • Meerdere keren weergegeven tijdens het gebruik van de AI
  • Gegeven aan het einde van het gebruik van de app
  • Bied na het verlaten van de app en mogelijk zelfs minuten, uren of dagen later
  • Enz.

Denkt u dat de persoon die de AI gebruikt, dergelijke AI-waarschuwingen of waarschuwingssignalen moet bevestigen of erkennen?

Sommigen zouden erop aandringen dat de persoon zou moeten erkennen dat hij de waarschuwingen heeft gezien. Dit zou mogelijk diegenen voorkomen die beweren dat er geen waarschuwingsbericht was. Het kan er ook toe leiden dat mensen de berichten serieuzer nemen, aangezien hen wordt gevraagd te bevestigen dat ze de waarschuwingsindicatie hebben waargenomen.

Hier is een moeilijke vraag voor jou.

Moeten allen Moet AI een waarschuwing of veiligheidsindicatie geven?

Je zou kunnen zeggen dat ja, alle AI dit moet hebben. Zelfs als de AI slechts een marginaal veiligheidsrisico is, moet er toch een waarschuwingsbord op staan, mogelijk slechts een melding of informatieve indicatie. Anderen zouden deze bewering betwisten. Ze zouden tegenspreken dat je overboord gaat. Niet alle AI heeft dit nodig. Bovendien, als je alle AI dwingt om het te hebben, verwater je het doel. Mensen zullen gevoelloos worden bij het zien van de waarschuwingssignalen. De hele aanpak wordt een farce.

Over een verwante invalshoek, overweeg wat de AI-makers waarschijnlijk zullen zeggen.

Een standpunt zou zijn dat dit lastig zal zijn in de je-weet-wat-wat moet worden ingevoerd. Het kan kostbaar zijn om al uw AI-systemen te wijzigen en deze functie toe te voegen. Het toevoegen ervan op een doorgaande basis kan minder duur zijn, maar er zijn niettemin kosten verbonden aan het opnemen van deze bepaling.

De wazigheid is een andere mogelijke klacht. Wat voor bericht moet er getoond worden? Als er geen standaarden zijn, betekent dit dat de AI-makers iets nieuws moeten maken. Niet alleen kost deze extra kosten, het opent mogelijk de deur om aangeklaagd te worden. Je kunt je voorstellen dat een AI-maker voor de taak zou worden genomen dat hun waarschuwing niet zo goed was als een ander AI-systeem. Advocaten zullen uiteindelijk een bundel maken van de resulterende verwarring.

Er is ook de zorg dat mensen onnodig bang zullen zijn door deze veiligheidsberichten.

Een AI-maker kan een steile daling van het aantal gebruikers zien als gevolg van een veiligheidsbericht dat louter bedoeld is om een ​​informatieve waarschuwing te geven. Mensen zullen niet weten wat ze van de boodschap moeten denken. Als ze dergelijke berichten nog niet eerder hebben gezien, kunnen ze meteen in paniek raken en onnodig het gebruik van de AI vermijden.

Ik noem die facetten omdat sommigen al verkondigen dat "het geen kwaad kan" om AI-waarschuwingen of veiligheidsberichten op te nemen. Voor hen is het idee net zo ideaal als appeltaart. Niemand kan de voordelen serieus weerleggen van het altijd eisen van AI-gerelateerde veiligheid of waarschuwingen. Maar dat is natuurlijk geen echte manier van denken over de zaak.

Je zou zelfs verder kunnen gaan en beweren dat de AI-waarschuwingsberichten een vorm van massahysterie zouden kunnen veroorzaken. Als we ineens AI-systemen zouden dwingen om dergelijke berichten te hebben, zouden mensen de bedoeling verkeerd kunnen interpreteren. Zie je, er zijn veel aansporingen dat we worden geconfronteerd met een AI-existentiële crisis, waarbij AI de wereld gaat overnemen en de mensheid zal uitroeien, zie je de link hier voor mijn analyse van dat soort claims.

Het gebruik van het AI-waarschuwingsbericht kan sommige mensen "inspireren" om te geloven dat het einde nabij is. Waarom zouden de berichten anders nu verschijnen? Het is zeker een indicatie dat AI eindelijk klaar is om onze onderdrukkende opperheren te worden.

Een soort van wanhopig somber resultaat van proberen het juiste te doen door het publiek bewust te maken van hoe AI kan worden doordrenkt met discriminerende capaciteiten of andere AI voor slecht aspecten.

Conclusie

James Russell Lowell, de beroemde Amerikaanse dichter, zei ooit dit: "Eén doorn van ervaring is een hele wildernis van waarschuwing waard."

Ik breng de verheven opmerking naar voren om een ​​paar afsluitende opmerkingen te maken over de kwestie van AI-waarschuwingen of veiligheidsberichten.

De kans is groot dat totdat we een enigszins wijdverbreid besef hebben dat AI slechte daden verricht, er niet veel roep zal zijn om AI-gerelateerde waarschuwingsberichten. De AI-makers die ervoor kiezen om dit vrijwillig te doen, zullen misschien worden geprezen, hoewel ze ook onbedoeld kunnen worden lastiggevallen. Sommige experts gaan misschien achter hen aan omdat ze AI gebruiken die schijnbaar waarschuwingen nodig heeft, terwijl ze zich ondertussen niet realiseren dat ze als eerste probeerden te gaan en al die andere AI-makers achterblijven.

Verdorie als je dat doet, misschien niet verdomd als je dat niet doet.

Een andere overweging gaat over het omzetten van wat een mooi conceptueel idee lijkt in een praktische en nuttige praktijk. Het is gemakkelijk om met je handen te zwaaien en vaag tegen de wind te schreeuwen dat AI waarschuwings- en veiligheidsberichten zou moeten hebben. Het moeilijkste komt bij het beslissen wat die berichten moeten zijn, wanneer en waar ze moeten worden gepresenteerd, of en in welke mate hun kosten voldoende voordelen opleveren, enzovoort.

We zullen James Russell Lowell hierbij voorlopig het laatste woord (poëtisch dus) geven over dit onderwerp: "Creativiteit is niet het vinden van iets, maar het maken van iets nadat het is gevonden."

Denk dat het tijd is om onze mouwen op te stropen en hiermee aan de slag te gaan. En dat is niet alleen een waarschuwing, het is een actie.

Bron: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- waarschuwingen-op-alle-bestaande-en-toekomstige-ai/