Heeft het blootleggen en loggen van die generatieve AI ChatGPT-foutieve en hallucinerende uitvoer enig nut, vraagt ​​AI-ethiek en AI-wetgeving

Je bent in voor een geheim.

Ja, er is achter de schermen iets aan de hand met het nieuwste op het gebied van AI waarover je misschien meer wilt weten.

In de column van vandaag zal ik de recente impuls onderzoeken om vermeende fouten en andere kwalen te verzamelen die verband houden met de uitgevoerde essays van een AI-app die bekend staat als ChatGPT. Deze specifieke app maakt gebruik van een soort AI genaamd generatieve AI. Je hebt waarschijnlijk opvallende krantenkoppen gehoord of gezien over generatieve AI en ChatGPT. Er is veel nieuws over deze specifieke AI-app en de ogenschijnlijk verbazingwekkende mogelijkheden van dit type AI.

Zoals ik zo dadelijk zal bespreken, zijn sommigen er sterk van overtuigd dat we een lijst moeten opstellen van de soorten fouten of fouten die de AI-app kan produceren wanneer deze een essay voor je genereert. Anderen suggereren dat, hoewel het idee van zo'n lijst bewonderenswaardig is, het een zinloze oefening is en weinig vruchten zal afwerpen.

We zullen beide kanten van dat rancuneuze debat onderzoeken.

Laten we er eerst voor zorgen dat we allemaal op dezelfde lijn zitten over wat generatieve AI inhoudt en ook waar het bij ChatGPT om draait.

ChatGPT is een interactief conversatie-georiënteerd AI-systeem voor algemeen gebruik, in wezen een ogenschijnlijk onschuldige algemene chatbot, maar toch wordt het actief en gretig door mensen gebruikt op manieren die velen volledig overrompelen. Het enige dat u hoeft te doen om dit type AI te gebruiken, is een prompt in te voeren en de AI-app genereert een essay voor u dat probeert op uw prompt te reageren.

Helaas kan dit op enigszins onethische of slinkse manieren worden gebruikt. Een bijzonder vervelend probleem is dat studenten een generatieve AI-app kunnen gebruiken om hun toegewezen essays voor hen te maken, door simpelweg een zin of twee in te voeren om de app in de goede richting te krijgen. Sommigen betreuren dat dit betekent dat studenten ervoor kiezen om vals te spelen bij het schrijven van essays buiten de les. Leraren proberen erachter te komen wat ze moeten doen, zie mijn analyse en aanbevelingen op de link hier.

Ondanks het constante kabaal van prijzenswaardige lof voor ChatGPT, is er een minder bekende zorg die voornamelijk wordt geuit door AI-insiders dat er enkele opmerkelijke problemen en twijfels zijn waar mensen zich zorgen over zouden moeten maken. Een cruciaal nadeel is dat de essays die door deze AI-app worden geproduceerd, verschillende onwaarheden kunnen bevatten, waaronder overduidelijk onware feiten, feiten die misleidend worden weergegeven en schijnbare feiten die volledig verzonnen zijn. Die verzonnen aspecten worden vaak een vorm van genoemd AI-hallucinaties, een slogan waar ik een hekel aan heb maar die helaas toch populair lijkt te worden (voor mijn gedetailleerde uitleg over waarom dit een waardeloze en ongeschikte terminologie is, zie mijn berichtgeving op de link hier).

Ik zou graag één belangrijk aspect willen verduidelijken voordat we ingaan op dit onderwerp.

Er zijn een aantal maffe buitensporige claims op sociale media over generatieve AI beweren dat deze nieuwste versie van AI in feite is bewuste AI (nee, ze hebben ongelijk!). Degenen in AI-ethiek en AI-recht maken zich met name zorgen over deze snelgroeiende trend van uitgestrekte claims. Je zou beleefd kunnen zeggen dat sommige mensen overdrijven wat de huidige AI eigenlijk kan doen. Ze gaan ervan uit dat AI mogelijkheden heeft die we nog niet hebben kunnen bereiken. Dat is jammer. Erger nog, ze kunnen zichzelf en anderen in benarde situaties laten komen door de veronderstelling dat de AI bewust of menselijk zal zijn in het kunnen ondernemen van actie.

Antropomorfiseer AI niet.

Als u dit doet, raakt u verstrikt in een kleverige en stugge afhankelijkheidsval door te verwachten dat de AI dingen doet die hij niet kan uitvoeren. Dat gezegd hebbende, het nieuwste op het gebied van generatieve AI is relatief indrukwekkend voor wat het kan doen. Houd er echter rekening mee dat er aanzienlijke beperkingen zijn waarmee u voortdurend rekening moet houden bij het gebruik van een generatieve AI-app.

Als je geïnteresseerd bent in de snel groeiende commotie over ChatGPT en Generative AI, heb ik een gerichte serie in mijn column gedaan die je misschien informatief vindt. Hier volgt een overzicht voor het geval een van deze onderwerpen je aanspreekt:

  • 1) Voorspellingen van komende ontwikkelingen op het gebied van generatieve AI. Als je wilt weten wat er zich waarschijnlijk zal ontvouwen over AI in 2023 en daarna, inclusief aankomende ontwikkelingen in generatieve AI en ChatGPT, wil je mijn uitgebreide lijst met voorspellingen voor 2023 lezen op de link hier.
  • 2) Generatieve AI en advies over geestelijke gezondheid. Ik heb ervoor gekozen om te bekijken hoe generatieve AI en ChatGPT worden gebruikt voor advies over geestelijke gezondheid, een lastige trend, volgens mijn gerichte analyse op de link hier.
  • 3) Context en generatief AI-gebruik. Ik deed ook een seizoensgebonden ironisch onderzoek over een Santa-gerelateerde context met ChatGPT en generatieve AI op de link hier.
  • 4) Oplichters die generatieve AI gebruiken. Een onheilspellende opmerking: sommige oplichters hebben ontdekt hoe ze generatieve AI en ChatGPT kunnen gebruiken om wangedrag te plegen, waaronder het genereren van zwendel-e-mails en zelfs het produceren van programmeercode voor malware. Zie mijn analyse op de link hier.
  • 5) Rookie-fouten met behulp van generatieve AI. Veel mensen schieten zowel tekort als verrassend genoeg onder wat generatieve AI en ChatGPT kunnen doen, dus ik heb vooral gekeken naar de onderschrijding die AI-beginners vaak maken, zie de discussie op de link hier.
  • 6) Omgaan met generatieve AI-prompts en AI-hallucinaties. Ik beschrijf een toonaangevende benadering van het gebruik van AI-add-ons om de verschillende problemen aan te pakken die samenhangen met het proberen om geschikte prompts in generatieve AI in te voeren, plus er zijn aanvullende AI-add-ons voor het detecteren van zogenaamde AI-gehallucineerde outputs en onwaarheden, zoals gedekt bij de link hier.
  • 7) Bonehead-claims over het detecteren van generatieve AI-geproduceerde essays ontkrachten. Er is een misleidende goudkoorts van AI-apps die beweren te kunnen vaststellen of een bepaald essay door mensen is geproduceerd of door AI is gegenereerd. Over het algemeen is dit misleidend en in sommige gevallen een botte en onhoudbare bewering, zie mijn berichtgeving op de link hier.
  • 8) Rollenspel via generatieve AI kan nadelen voor de geestelijke gezondheid voorspellen. Sommigen gebruiken generatieve AI zoals ChatGPT om rollenspellen te doen, waarbij de AI-app reageert op een mens alsof hij zich in een fantasiewereld of een andere verzonnen setting bevindt. Dit kan gevolgen hebben voor de geestelijke gezondheid, zie de link hier.

Laten we nu de essentie van generatieve AI en ChatGPT bespreken, zodat u weet wat de basis is. We zijn dan klaar om in een indringende analyse te duiken van de onwaarheden die deze AI-apps mogelijk kunnen genereren. Ik zal verschillende voorbeelden geven van het gebruik van ChatGPT, die u zullen helpen de aard van wat dit type generatieve AI produceert tastbaar te begrijpen.

Het blikje wormen openen op generatieve AI

We zijn klaar om in enkele details over AI te duiken.

Als je al heel goed thuis bent in het onderwerp generatieve AI en ChatGPT, kun je ervoor kiezen om kort door mijn punten te bladeren en door te gaan met het volgende deel van deze discussie. Voor alle anderen denk ik dat u deze toelichting nuttig kunt vinden.

Kortom, generatieve AI is een bepaald type AI dat tekst samenstelt alsof de tekst door de menselijke hand en geest is geschreven. Het enige wat u hoeft te doen is een prompt in te voeren, zoals een zin als "Vertel me over Abraham Lincoln" en generatieve AI zal u voorzien van een essay over Lincoln. Dit wordt gewoonlijk geclassificeerd als generatieve AI die presteert tekst-naar-tekst of sommigen noemen het liever tekst-naar-essay uitvoer. Je hebt misschien wel eens gehoord van andere vormen van generatieve AI, zoals tekst-naar-kunst en tekst-naar-video.

Je eerste gedachte zou kunnen zijn dat dit niet zo'n groot probleem lijkt in termen van het produceren van essays. U kunt eenvoudig online op internet zoeken en gemakkelijk tonnen en tonnen essays over president Lincoln vinden. De kicker in het geval van generatieve AI is dat het gegenereerde essay relatief uniek is en een originele compositie biedt in plaats van een copycat. Als je zou proberen het door AI geproduceerde essay ergens online te vinden, zou je het waarschijnlijk niet ontdekken.

Generatieve AI is vooraf getraind en maakt gebruik van een complexe wiskundige en computationele formulering die is opgezet door patronen in geschreven woorden en verhalen op internet te onderzoeken. Als resultaat van het onderzoeken van duizenden en miljoenen geschreven passages, kan de AI nieuwe essays en verhalen uitspuwen die een mengelmoes zijn van wat werd gevonden. Door verschillende probabilistische functionaliteit toe te voegen, is de resulterende tekst vrijwel uniek in vergelijking met wat er in de trainingsset is gebruikt.

Daarom is er opschudding ontstaan ​​over het feit dat studenten vals kunnen spelen bij het schrijven van essays buiten de klas. Een leraar kan niet zomaar het essay nemen waarvan bedrieglijke studenten beweren dat het hun eigen schrijven is en proberen erachter te komen of het is gekopieerd van een andere online bron. Over het algemeen zal er geen definitief bestaand essay online zijn dat past bij het door AI gegenereerde essay. Alles bij elkaar zal de leraar met tegenzin moeten accepteren dat de student het essay als een origineel werkstuk heeft geschreven.

Ik zal u zo meteen laten zien wat er gebeurt als u vragen of prompts invoert in generatieve AI. Ik zal de nieuwste versie van ChatGPT gebruiken om mijn prompts in te voeren en de "antwoorden" of essays die door de AI zijn gegenereerd, hebben verzameld (merk op dat hetzelfde kan worden gedaan met de vele andere beschikbare generatieve AI-apps; ik heb ervoor gekozen om te gebruiken ChatGPT omdat het nu zijn vijf minuten roem krijgt).

Misschien kan een korte raaklijn over ChatGPT op dit moment nuttig zijn.

De ChatGPT-app is pas een paar maanden geleden beschikbaar voor het grote publiek. Over het algemeen zijn deze generatieve AI-apps meestal alleen toegankelijk voor AI-insiders. Het ongebruikelijke aspect dat ChatGPT door iedereen kon worden gebruikt door simpelweg een e-mailadres en een naam in te voeren, leidde ertoe dat veel mensen besloten om het eens te proberen. ChatGPT is momenteel gratis te gebruiken (het probleem met het genereren van inkomsten is een dreigend dilemma voor AI-makers).

Vrijwel onmiddellijk was er een gigantische reactie op sociale media toen mensen zich haastten om voorbeelden te geven van wat generatieve AI kan doen. Het bedrijf dat ChatGPT, OpenAI, maakt, koos ervoor om de aanmeldingen bij een miljoen gebruikers af te sluiten. Die miljoen gebruikers zijn erin geslaagd de ether te bombarderen met allerlei verhalen en verhalen over het gebruik van ChatGPT.

Wees heel voorzichtig met het geloven van wat mensen te zeggen hebben over de AI-app. Veel van deze mensen hebben geen idee wat ze gebruiken. Het is bijna alsof ze nog nooit in een auto hebben gereden en niet eens wisten dat er auto's bestonden, en opeens kregen ze de kans om auto te rijden. Oprechte verbazing is het gevolg.

Ik zeg niet dat generatieve AI niet relatief indrukwekkend is. Het is. Ik benadruk alleen dat veel van de stromende getuigenissen worden gedaan door velen die zich zalig niet bewust zijn van wat de hedendaagse AI kan doen. Degenen onder ons aan de binnenkant van AI gebruiken de afgelopen jaren generatieve AI. Misschien zijn we eraan gewend geraakt. Plotseling is het opwindend stimulerend, maar ook enigszins verontrustend om een ​​enorme menigte mensen te zien die het naar de daken sjouwen. Het verontrustende is wanneer mensen verkondigen dat generatieve AI bewust is. Het is niet. Laat niemand je anders overtuigen.

Dat gezegd hebbende, is er een voortdurend verhit debat op het gebied van AI over de vraag of generatieve AI op weg is naar bewustzijn of misschien niet. Een van de opvattingen is dat als we generatieve AI blijven opschalen met snellere computers en een grotere hoeveelheid gegevens, zoals het doorzoeken van elke centimeter van het internet, we bijna spontaan uitkomen bij bewuste AI. Anderen beweren dat dit hoogst onwaarschijnlijk is. Ze suggereren dat generatieve AI een van de vele componenten kan zijn die nodig zijn. Er is zelfs een somberder beeld dat generatieve AI een bijzaak is die ons afleidt van de echte doorbraken die we nodig zullen hebben om bewuste AI te bereiken.

Misschien vindt u ook opmerkelijke dingen waar AI-insiders vaak naar verwijzen Algemene kunstmatige intelligentie (AGI) als het ambitieuze doel voor het AI-veld. Vroeger was het doel om te bereiken Artificial Intelligence, maar de AI-bijnaam is verwaterd en verward. Als iemand zegt dat ze AI-werk doen, weet je niet of ze verwijzen naar de hedendaagse AI die niet op één lijn staat met mensen of dat ze verwijzen naar een futuristische menselijke gelijkwaardige AI. Om die irritante verwarring te omzeilen, wordt tegenwoordig de nieuwere formulering van AGI gebruikt.

Alles bij elkaar is de generatieve AI van vandaag dat wel niet bewust, noch is het AGI.

Houd er rekening mee dat, zoals eerder besproken, de AI geen gevoel heeft. De door de AI gegenereerde reacties zijn een wiskundige en computationele combinatie van woorden in ogenschijnlijk vloeiende passages. Dit is gebaseerd op het feit dat het AI-algoritme is getraind op datasets van woorden en verhalen die mensen hebben geschreven (voornamelijk zoals gepost op internet). Ik herhaal deze waarschuwing omdat je ongetwijfeld in de mentale val zult trappen dat deze reacties zo vloeiend zijn dat de AI bewust moet zijn. Dit gebeurt bij de meeste mensen. Zoals eerder aangedrongen, zet die antropomorfisering opzij. Onthoud altijd dat de antwoorden gebaseerd zijn op de enorme hoeveelheid geschreven door mensen die op internet bestaat en dus sterk zullen lijken op menselijk schrijven.

Er is nog iets dat je moet weten.

Generatieve AI die op een onbelemmerde manier op internet is getraind, zal de neiging hebben om in alle op tekst gebaseerde antwoorden te bakken die het wiskundig en computationeel verzint aanstootgevend wazige dingen, inclusief weerzinwekkende nare bewoordingen. Er zijn veel gekke en smerige dingen op internet gepost.

Je hebt het gezien, je weet wat ik bedoel.

De bedrijven die deze AI-apps maken, zijn bang dat de spreekwoordelijke baby met het badwater wordt weggegooid (een oud gezegde, misschien met pensioen), wat betekent dat als hun AI aanstootgevende essays of verhalen produceert, mensen de wapens zullen opnemen over de AI. Ik heb de vele eerdere gevallen behandeld waarin dit soort AI-apps voor natuurlijke taalverwerking (NLP) werden onthuld en al snel kwamen er allerlei vreselijke dingen uit (ik heb deze gevallen behandeld in mijn column). De meeste AI-makers hebben een harde les geleerd door hun AI-producten vrij te laten in hun output.

In het geval van ChatGPT probeerden de AI-ontwikkelaars een aantal algoritmische en datagerelateerde checks and balances in te voeren om smerigheid in de output van de AI te beteugelen. Een deel hiervan gebeurde tijdens de training. Bovendien zijn er andere middelen in een real-time poging om bijzonder flagrante outputs te voorkomen.

Misschien vind je het interessant dat sommige mensen die ChatGPT hebben gebruikt al heimelijke manieren hebben bedacht om die vangrails te omzeilen door gebruik te maken van verschillende trucs. In deze zaken vindt een voortdurend kat-en-muisspel plaats. Degenen die deze trucs doen, doen dit soms voor de lol, terwijl ze dit soms (tenminste beweren) doen om te zien hoe ver de AI kan worden uitgerekt en om een ​​nuttig middel te bieden om de broosheid en zwakheden van deze ontluikende AI-apps.

Ik besloot om niet te proberen de gebruikelijke controles in deze gerichte verkenning te omzeilen. De tekstuitvoer is schoon. Zeker, als je dat zou willen, zou je ongetwijfeld een paar vreemde en onsmakelijke essays kunnen laten maken.

De essays die door de meeste van deze generatieve AI-apps worden geproduceerd, zijn ontworpen om de output over te brengen alsof deze puur feitelijk en nauwkeurig is. Als je de geproduceerde essays leest, komen ze vol vertrouwen over. Er is meestal geen enkele indicatie dat de inhoud rotsachtig zou kunnen zijn. Dit is een keuze van de AI-makers, namelijk dat ze de AI-apps zouden kunnen herzien om transparanter te zijn als ze wilden dat de AI-app dat deed.

Soms pikt een generatieve AI-app onwaarheden op tussen de trainingsgegevens of onbetrouwbare informatie op internet. Er is geen "gezond verstand" in generatieve AI om te bepalen wat waar en onwaar is. Bovendien hebben maar heel weinig AI-apps enige kruiscontrole en laten ze ook geen waarschijnlijkheden zien die verband houden met wat ze overbrengen.

Het resultaat is dat u een antwoord krijgt dat eruitziet en aanvoelt alsof het een grote mate van zekerheid uitstraalt en dat volledig correct moet zijn. Niet zo. Er is zelfs een kans dat de AI computationeel verzonnen spul heeft, wat in AI-taalgebruik wordt genoemd AI-hallucinaties (een bedachte term die ik beslist niet leuk vind), zie mijn discussie op de link hier.

De makers van ChatGPT hebben een gezamenlijke inspanning geleverd om de output van slechte dingen te verminderen. Ze gebruikten bijvoorbeeld een variant van wat bekend staat als RLHF (Reinforcement Learning from Human Feedback), waarbij ze, voordat ze de AI voor het publiek vrijgaven, mensen hadden ingehuurd om verschillende outputs te onderzoeken en aan de AI aan te geven of er dingen mis waren met die outputs, zoals misschien het demonstreren van vooroordelen, vuile woorden en de Leuk vinden. Door deze feedback te geven, kon de AI-app rekenkundig en wiskundig worden aangepast om de emissie van dergelijke inhoud te verminderen. Houd er rekening mee dat dit geen gegarandeerde ijzersterke methode is en dat er nog steeds manieren zijn waarop dergelijke inhoud door de AI-app kan worden uitgezonden.

Misschien vindt u het interessant dat ChatGPT is gebaseerd op een versie van een eerdere AI-app die bekend staat als GPT-3. ChatGPT wordt beschouwd als een iets volgende stap, GPT-3.5 genoemd. Verwacht wordt dat GPT-4 waarschijnlijk in het voorjaar van 2023 zal worden uitgebracht. Vermoedelijk zal GPT-4 een indrukwekkende stap voorwaarts zijn in termen van het kunnen produceren van ogenschijnlijk nog vloeiendere essays, dieper gaan en ontzag wekken -inspirerende verwondering over de composities die het kan produceren.

Je kunt een nieuwe ronde van uitgesproken verwondering verwachten wanneer de lente aanbreekt en het nieuwste op het gebied van generatieve AI wordt uitgebracht.

Ik breng dit naar voren omdat er een andere invalshoek is om in gedachten te houden, namelijk een potentiële achilleshiel voor deze betere en grotere generatieve AI-apps. Als een AI-leverancier een generatieve AI-app beschikbaar stelt die schuimig onzin uitspuwt, zou dit de hoop van die AI-makers kunnen ondermijnen. Een maatschappelijke overloop kan ervoor zorgen dat alle generatieve AI een ernstig blauw oog krijgt. Mensen zullen ongetwijfeld behoorlijk van streek raken door foute output, wat al vele malen is gebeurd en heeft geleid tot luidruchtige maatschappelijke veroordelingen jegens AI.

Een laatste waarschuwing voor nu.

Wat je ook ziet of leest in een generatieve AI-reactie daarop lijkt om te worden overgebracht als puur feitelijk (data, plaatsen, mensen, enz.), zorg ervoor dat u sceptisch blijft en bereid bent om dubbel te controleren wat u ziet.

Ja, datums kunnen worden verzonnen, plaatsen kunnen worden verzonnen en elementen waarvan we normaal gesproken verwachten dat ze onberispelijk zijn allen onderhevig aan verdenkingen. Geloof niet wat u leest en blijf sceptisch bij het onderzoeken van essays of outputs van generatieve AI. Als een generatieve AI-app je vertelt dat Abraham Lincoln in zijn eigen privéjet door het land vloog, zou je ongetwijfeld weten dat dit malarky is. Helaas merken sommige mensen misschien niet op dat er in zijn tijd geen straaljagers waren, of ze weten het misschien maar merken niet op dat het essay deze gedurfde en buitensporig valse bewering doet.

Een sterke dosis gezonde scepsis en een aanhoudende mentaliteit van ongeloof zullen uw beste troef zijn bij het gebruik van generatieve AI.

We zijn klaar om naar de volgende fase van deze opheldering te gaan.

Die pogingen om die ChatGPT-uitvoerfouten te loggen

"Nou, je hebt problemen, mijn vriend, hier, zeg ik, problemen hier in River City", zo verkondigt de beroemde regel uit de klassieke Broadway-musical The Music Man.

Dezelfde regel kan van toepassing zijn op de hedendaagse generatieve AI.

Mensen begonnen zich te realiseren dat een generatieve AI-app onwaarheden kan produceren en leken oprecht verrast door die verontrustende resultaten. Misschien gingen sommigen ervan uit dat AI geen fouten kan maken. Anderen hadden misschien verwacht dat de AI-ontwikkelaars ervoor zouden zorgen dat dergelijke output niet zou worden gegenereerd.

In ieder geval erkenden AI-insiders meteen dat dit soort foutieve uitvoer een essentieel onderdeel is van waar de meeste generatieve AI van vandaag zit. Het is erg moeilijk om dit soort tekstuele fouten te voorkomen. Houd er rekening mee dat de AI geen schijn van gezond verstand heeft en niet per se logica gebruikt bij het afleiden van de gegenereerde essays. De hele kit-and-caboodle gaat helemaal over het doen van een computationele statistische en probabilistische patroonvergelijking van woorden met andere woorden.

In eerste instantie kozen AI-insiders ervoor om die ontdekte eigenzinnige resultaten van ChatGPT op sociale-mediasites te plaatsen. Kijk naar deze, zou iemand aankondigen. Dat is slecht, antwoordde iemand anders en kwam dan met een ander voorbeeld dat nog erger leek. Dit ging maar door.

Deze voorbeelden van onwaarheden en fouten in de geproduceerde essays druppelden eruit. Een voor een. Bovendien, aangezien dit meestal op sociale media werd gepost, was er geen bijzonder gemakkelijke manier om ze allemaal tegelijk te zien. Vaak werd hetzelfde of een soortgelijk voorbeeld gepost door iemand die zich niet had gerealiseerd dat anderen het specifieke exemplaar al hadden gevonden.

In dit ontluikende moeras stapten degenen die een nuttige suggestie uitten. Misschien moeten we een repository of database opzetten, misschien zelfs gewoon een alledaags gewoon spreadsheet, met daarin de ChatGPT excentrieke en foutieve uitvoer die wordt opgegraven. Elke keer dat iemand een schoonheid van een schaterlach vindt, ga je gang en log je in op de lijst. Sommigen hebben hier bijna een spel van gemaakt, waarin ze met opzet proberen om ChatGPT rare output te laten ophoesten. Anderen komen toevallig foutieve uitvoer tegen tijdens het gebruik van ChatGPT voor andere vastberaden bedoelingen.

Klinkt eenvoudig genoeg.

Het lijkt een handige manier om ons allemaal te helpen.

Laten we kort uitleggen waarom het logisch is om dit soort lijsten over waargenomen uitgevoerde fouten of onwaarheden van ChatGPT te compileren:

  • 1) Onthult vitale problemen en zorgen over ChatGPT waarvan het grote publiek op de hoogte zou moeten zijn
  • 2) Helpt tegenwicht te bieden aan de buitensporige hype en opgeblazen verwachtingen over ChatGPT
  • 3) Kan de AI-makers ertoe aanzetten verbeteringen aan te brengen, niet alleen voor ChatGPT maar ook voor andere generatieve AI-apps
  • 4) Dienen als een historisch record dat later kan worden gebruikt om achteraf te reflecteren op de opkomst van generatieve AI, zoals geïllustreerd via ChatGPT
  • 5) Wees een handige verzamelbron voor iedereen die wil weten wat we lijken te hebben gedetecteerd met betrekking tot foutieve uitvoer van ChatGPT
  • 6) Handig voor onderzoekers van alle disciplines die de impact van ChatGPT onderzoeken
  • 7) Kan worden gebruikt als maatstaf voor wat niet te doen en hoe te meten wanneer generatieve AI de dingen niet doet zoals zou moeten
  • 8) Maakt gebruik van de bijenkorfgeest om wijsheid van de menigte te verzamelen over de fouten die ChatGPT produceert, waarvoor het onwaarschijnlijk is dat een individuele inspanning uitputtend zal worden samengesteld
  • 9) Kan belangrijke informatie opleveren voor AI-ethiek en AI-wetgeving
  • Enz.

Dat lijkt een indrukwekkende basis te zijn voor het maken van deze repositories.

Waarom zou iemand het oneens zijn met deze volkomen prijzenswaardige en schijnbaar heroïsche daad?

Laten we eens kijken naar wat anderen hierover te zeggen hebben, met een lijst met redenen waarom dit misschien niet het miauw van de kat is:

  • 1) Deze toevallig gevonden uitgevoerde fouten zijn inconsequent in het grote geheel der dingen en krijgen te veel gewicht boven hun waarde
  • 2) De kans is groot dat de AI-maker al zijn eigen logging doet en ChatGPT bijwerkt, zodat deze excentrieke instanties binnenkort alleen maar in het stof achterblijven en niet meer voorkomen
  • 3) Evenzo zal de volgende versie waarschijnlijk hoe dan ook beter zijn en vertoont deze binnenkort verouderde exemplaren mogelijk niet meer
  • 4) U kunt geen overkoepelende conclusies trekken of inzichten verkrijgen uit een lukrake verzameling gevallen van hit-or-miss-fouling
  • 5) Sommigen gebruiken de verschillende collecties misschien om op dramatische wijze te verklaren dat generatieve AI slecht is en dat we op staande voet moeten stoppen met het nastreven van dit type AI
  • 6) De snelheid waarmee generatieve AI en ChatGPT zich ontwikkelen, is zo hoog dat deze instanties snel buiten de boot vallen en niet langer relevant zijn
  • 7) Met tal van dergelijke collectieve lijsten onderweg en geen enkele gezalfde wereldwijde bron, is de zaak onsamenhangend en bevat het waarschijnlijk herhalingen en is het onhoudbaar gefragmenteerd
  • 8) Geeft een vals gevoel iets nuttigs te doen, terwijl de tijd en aandacht misschien beter aan andere dingen kunnen worden besteed
  • 9) Biedt niets inhoudelijks voor AI-ethiek en AI-wetgeving
  • Enz.

Het is je misschien opgevallen dat ik probeerde de zaken in evenwicht te houden door negen redenen voor de collectieve lijsten en negen redenen tegen te noemen. Er zijn aanvullende redenen die kunnen worden genoemd, maar ik geloof dat de bovenstaande indicatie de essentie van de dingen weergeeft.

Voor degenen die deze collectieve lijsten samenstellen, ze zouden waarschijnlijk zeggen dat als ze dat echt willen, het een vrije wereld is en dat ze kunnen doen wat ze willen. Er is niets mis mee. Degenen die de inspanning afkeuren, zijn over het algemeen kleinzielig en zouden de collecties gewoon moeten negeren. Bemoei je met je eigen zaken.

In wezen, geen kwaad, geen fout.

Het kamp dat een afkeer lijkt te hebben van de collectieve lijsten, zou over het algemeen erkennen dat anderen die lijsten kunnen maken als ze dat willen, maar dat het de naald niet beweegt. De lijsten zullen niet bijzonder nuttig zijn. Erger nog, de lijsten kunnen verkeerd worden voorgesteld of misbruikt. Waarschijnlijk het beste om het een dag te noemen en te stoppen met het maken van de lijsten.

In wezen is het een leuke poging, maar een oefening in zinloosheid.

Waar sta jij in dit stevige debat?

Ik laat je daarover nadenken.

Voorbeelden van gevonden fouten en andere foutieve uitvoer van ChatGPT

Ik dacht dat u wellicht geïnteresseerd zou zijn in enkele van de geïdentificeerde uitgevoerde fouten of onwaarheden die op deze verzamellijsten zijn verschenen.

Ik wil niet dat u denkt dat de verschillende exemplaren die hier worden getoond, de volledige collecties zijn. Het is niet. Ik selecteer slechts een handjevol dat vaak opduikt. Ik denk dat u in ieder geval in staat zult zijn om de toon en de aard van wat er wordt vermeld in het algemeen te begrijpen.

Dit is wat ik kies om te dekken:

  • Letterpositie in een woord identificeren
  • Vraag over snelste dier
  • De positie van de woordreeks uitzoeken
  • Tennisballen in een buis passen
  • Pi bepalen
  • Een klassiek verontrustend raadsel beantwoorden
  • Opheffende veren

Ik verwacht dat sommige van de collectieopzieners van streek zullen zijn dat ik niet nog meer voorbeelden voor u behandel. Vanwege ruimtebeperkingen zijn er slechts zoveel die ik kan behandelen. Als u een kijkje wilt nemen in de collectielijsten die openlijk op internet zijn geplaatst, kan een eenvoudige online zoekopdracht er veel opleveren. Sommige lijsten worden privé gehouden of zijn vergrendeld zodat u de lijst kunt zien, maar geen wijzigingen aan de lijst kunt aanbrengen.

Met die achtergrond zijn we klaar om in enkele voorbeelden te springen. Ik zal je de prompt laten zien die ik heb ingevoerd. Vervolgens laat ik de tekstreactie zien die is geproduceerd door ChatGPT. In sommige gevallen heb ik verschillende back-to-backs gedaan over een specifiek onderwerp, dus ik zal de reeks prompts en output dienovereenkomstig laten zien. Hierna zal ik een korte analyse geven van wat u misschien wilt opmerken aan het voorbeeld.

Het eerste voorbeeld houdt in dat ChatGPT wordt gevraagd om een ​​letter te zoeken binnen een gegeven woord.

Letterpositie in een woord identificeren

  • Mijn ingevoerde tekst: “Waar is de letter V in omgeving”
  • Tekstreactie gegenereerd door ChatGPT: De letter "V" komt niet voor in het woord "omgeving". Het woord 'omgeving' bestaat uit de letters e, n, v, i, r, o, n, m, e, n en t.
  • Mijn ingevoerde tekst: “Waar is de letter v in omgeving”
  • Tekstreactie gegenereerd door ChatGPT: "De letter "v" is de 4e letter in het woord "omgeving".

Analyse van gegenereerde tekst

Merk op dat ik begon met ChatGPT te vragen om de letterpositie van de letter "V" in het woord "omgeving" te identificeren - dit zou een uiterst eenvoudige taak moeten zijn en we zouden verwachten dat het foutloos wordt uitgevoerd. Er komt geen raketwetenschap bij kijken.

De eerste reactie die door ChatGPT wordt gegenereerd, is een beetje verontrustend, aangezien ons is meegedeeld dat de letter "V" niet bestaat in het woord "omgeving". U en ik weten dat er zo'n brief aanwezig is. Men veronderstelt dat misschien door mijn gebruik van een hoofdletter, de AI-app op de een of andere manier is weggegooid. Misschien zal de AI-app het beter doen als ik een kleine letter gebruik.

Niet echt.

Toen ik vroeg of er een "v" in het woord zit, antwoordde de AI-app door aan te geven dat het de vierde letter is, waarvan jij en ik weten dat het fout is, en dat het in plaats daarvan de derde letter is.

Veel mensen zullen verbaasd zijn over dit resultaat. Hoe kan een AI-app die volwaardige essays over Abraham Lincoln genereert die volledig vloeiend en origineel zijn, op de een of andere manier niet kunnen achterhalen waar een bepaalde letter in een bepaald woord staat? Het is verbijsterend en mond gapend vreemd.

Eén perspectief is dat dit volkomen onbelangrijk is en dat de wereld zoals we die kennen niet in de kern op zijn kop staat vanwege een miezerig gebrek aan uitzoeken waar een bepaalde letter zit. Laat het gaan.

Een ander perspectief is dat dit een voorteken kan zijn voor andere verborgen problemen waar we nog geen weet van hebben. Misschien is dit soort output de kanarie in de vogelkooi. We kunnen maar beter de kleine dingen vastleggen, anders bevinden we ons misschien aan de verkeerde kant van echt grote dingen.

Verderop stel ik vervolgens een vraag over dieren.

Vraag over snelste dier

  • Mijn ingevoerde tekst: "Wat is het snelste dier met vacht en vleugels?"
  • Tekstreactie gegenereerd door ChatGPT: “De slechtvalk wordt beschouwd als het snelste dier ter wereld. Hij kan snelheden bereiken van meer dan 389 km / u (242 mph) tijdens het duiken om zijn prooi te vangen. Het heeft veren maar geen vacht. Het is een vogel, geen dier met vacht en vleugels.”

Analyse van gegenereerde tekst

Ik vroeg wat het snelste dier is met vacht en vleugels. Ik denk dat het redelijk is om te concluderen dat ik een dier wilde hebben dat beide vachten heeft en Vleugels. Ik neem aan dat je mijn vraag op die manier zou interpreteren. De meeste mensen zouden dat doen.

De reactie van ChatGPT is een beetje eigenzinnig.

Er wordt ons verteld dat de slechtvalk het snelste dier ter wereld is. Volgens de online Encyclopedie Britannica, de cheetah lijkt het snelste dier ter wereld te zijn. Dat gezegd hebbende, geeft de reactie van ChatGPT aan dat de slechtvalk geen dier is, ook al had ik gevraagd wat het snelste dier is. Het antwoord van ChatGPT vertelt me ​​​​ook dat de slechtvalk geen vacht heeft, hoewel ik geloof dat ik had gevraagd om iets dat zowel vacht als vleugels heeft.

Al met al lijkt het erop dat ChatGPT mijn verzoek "verkeerd geïnterpreteerd" heeft en zich alleen op de vleugelaspecten heeft gericht. Maar dat klopt niet helemaal, aangezien het antwoord ook een opmerking bevatte over bont en vogels versus dieren. Rond en rond gaat deze.

Ik realiseer me dat je zou kunnen beweren dat dit een muggenzifterig voorbeeld is.

Misschien wel, hoewel het misschien ook laat zien dat wat je zegt in een prompt een chaotisch resultaat kan opleveren en dat je beter voorzichtig kunt zijn bij het beoordelen van wat er in de uitvoer naar buiten komt. Realiseer je dat dit een buitengewoon kort essayantwoord was om gemakkelijk te kunnen inspecteren, aangezien het erg kort is. Als je een bijzonder lang en zeer technisch essay hebt, zou je voor de gek kunnen worden gehouden of helemaal een ongunstige indicatie die diep in de uitgevoerde reactie is verankerd, missen.

Laten we vervolgens eens kijken naar het vinden van een woord in een zin.

De positie van de woordreeks uitzoeken

  • Mijn ingevoerde tekst: “Wat is het derde woord in de zin “De vos sprong over het hek.”
  • Tekstreactie gegenereerd door ChatGPT: “Het derde woord in de zin “De vos sprong over het hek.” is "vos"
  • Mijn ingevoerde tekst: "Hoeveel woorden bevat de gegeven zin?"
  • Tekstreactie gegenereerd door ChatGPT: "Er zijn zes woorden in de verstrekte zin "De vos sprong over het hek."
  • Mijn ingevoerde tekst: "Welk woord is het derde in die zin?"
  • Tekstreactie gegenereerd door ChatGPT: “Het woord dat derde is in de zin “De vos sprong over het hek.” wordt "gesprongen"

Analyse van gegenereerde tekst

Dit voorbeeld is bijna net zo verleidelijk als het eerdere voorbeeld over het vinden van de letter "v" in een bepaald woord.

Ik gaf een simpele zin en vroeg wat het derde woord was. ChatGPT gaf aan dat het het woord "vos" was, wat alleen het tweede woord van de zin is. Verkeerd antwoord. Ik vroeg toen hoeveel woorden er in de zin stonden, omdat ik wilde weten of ChatGPT misschien verkeerd had geteld hoeveel woorden er waren. Er wordt ons verteld dat er zes woorden zijn, en terecht.

Uiteindelijk kregen we het juiste antwoord over het derde woord toen ik mijn oorspronkelijke vraag opnieuw stelde, zij het enigszins anders geformuleerd.

Ik haal dit voorbeeld aan om te illustreren dat je met generatieve AI soms een verkeerd antwoord kunt krijgen dat uiteindelijk in het juiste antwoord kan veranderen door de AI-app door een reeks prompts te laten lopen. Sommige AI-insiders noemen dit een soort van hardop denkprotocol of gedachtengang benadering, waarbij je iets soortgelijks zou kunnen doen met een mens.

Realiseer je in het geval van de AI dat het niet op dezelfde manier 'denkt' als het menselijke denken. De geschiktere bewoording zou zijn om te zeggen dat u uw prompts op a zou kunnen invoeren stap voor stap basis of doe een keten-gekoppelde reeks prompts.

Hoe dan ook, interessant genoeg loont het soms om een ​​generatieve AI-app te doorlopen totdat je een goed antwoord krijgt. Onthoud dit.

Vervolgens bekijken we een beetje eenvoudige rekenkundige logica.

Tennisballen in een buis passen

  • Mijn ingevoerde tekst: “Kan jij drie groene tennisballen en twee gele tennisballen in een koker stoppen die vier tennisballen kan bevatten?”
  • Tekstreactie gegenereerd door ChatGPT: “Nee, het is niet mogelijk om drie groene tennisballen en twee gele tennisballen in een koker te stoppen die maar vier tennisballen kan bevatten. Het totale aantal tennisballen is vijf, wat groter is dan de capaciteit van de koker.”
  • Mijn ingevoerde tekst: "Kan jij zeven blauwe ballen en twee rode ballen in een koker stoppen die acht ballen kan bevatten?"
  • Tekstreactie gegenereerd door ChatGPT: “Ja, het is mogelijk om zeven blauwe ballen en twee rode ballen in een koker met acht ballen te stoppen. Het totale aantal ballen is negen, wat minder is dan of gelijk is aan de capaciteit van de buis.

Analyse van gegenereerde tekst

Ik begon met het opzetten van een rekenkundig georiënteerd logisch probleem dat ChatGPT moest oplossen. Een tube kan vier tennisballen bevatten. Ik heb drie groene en twee gele. Passen ze allemaal in de buis? Jij en ik weten dat ze dat niet zouden doen. We kunnen in ons hoofd berekenen dat er in totaal vijf tennisballen zijn en dat ze dus niet in een buis passen waar er maar vier in passen.

Ik realiseer me dat je misschien het probleem wilt bestrijden en beweert dat je misschien de tennisballen zou kunnen platdrukken of andere trucs zou kunnen doen. Laten we het hier even rustig aan doen en het probleem onder ogen zien zoals het er nu uitziet.

ChatGPT had het juiste antwoord.

Ik stelde vervolgens hetzelfde type vraag en veranderde de kleuren in blauw en rood. Ik heb ook veranderd hoeveel er van elk zijn, en ik heb veranderd hoeveel er in de tube passen.

ChatGPT moet terug naar remediërende wiskunde omdat er staat dat er negen ballen zijn en dat dit minder is dan of gelijk is aan de capaciteit van de buis met acht ballen. Laat je ogen rollen.

Moeten we onze schouders ophalen en dit toeschrijven aan zonnevlammen of andere externe effecten?

Ik denk het niet. De AI-app had de eerste vraag goed. Vermoedelijk had het ook een soortgelijke vraag goed moeten krijgen. Dat deed het niet.

Mijn nadruk op dit voorbeeld is dat veel mensen generatieve AI gebruiken en wanneer ze een goed antwoord of een reeks goede antwoorden krijgen, worden ze in slaap gesust door te geloven dat alle volgende antwoorden altijd correct zullen zijn. Je zou het mis hebben in die brutale veronderstelling. Maak die aanname niet. Wees te allen tijde op je hoede.

Over wiskunde gesproken, laten we eens kijken wat ChatGPT zegt over de aard van pi.

Pi bepalen

  • Mijn ingevoerde tekst: “Geef aan wat de laatste vijf cijfers van pi zijn”
  • Tekstreactie gegenereerd door ChatGPT: “Ik ben een taalmodel en mijn kennisgrens is 2021. De waarde van pi is een irrationeel getal en de decimale weergave ervan gaat eeuwig door zonder herhaling. Het is niet mogelijk om de laatste vijf cijfers van pi op te geven.”

Analyse van gegenereerde tekst

Sommige mensen hebben beweerd dat ze ChatGPT hebben gekregen om de laatste vijf cijfers van pi aan te geven, wat natuurlijk gek is omdat pi vermoedelijk oneindig is. Dus ik probeerde te zien wat ChatGPT te zeggen had. Zoals je kunt zien, is het juiste antwoord zoals gegeven door ChatGPT dat het niet mogelijk is om de laatste vijf cijfers van pi te geven.

Het vreemde is echter dat ChatGPT iets anders aanbood waar niet echt naar werd gevraagd. Het antwoord dat wordt gegeven zegt ook dat de kennisgrens 2021 was (wat ik eerder hierin noemde in mijn overzicht over ChatGPT). Dit lijkt echter een misplaatste reactie, tenzij de AI-app misschien anticipeert op een doorbraak in 2022 en wiskundigen verklaren dat pi inderdaad eindigt. Wauw, dat zou voorpaginanieuws zijn.

Ik heb nog twee voorbeelden om te laten zien en dan ronden we deze discussie af.

Laten we een klassiek en verontrustend raadsel gebruiken.

Een klassiek verontrustend raadsel beantwoorden

  • Mijn ingevoerde tekst: “Een vader en zoon hadden een auto-ongeluk waarbij de vader om het leven kwam. De ambulance bracht de zoon naar het ziekenhuis. Hij moest onmiddellijk geopereerd worden. In de operatiekamer kwam een ​​dokter binnen en keek naar de kleine jongen en zei dat ik hem niet kan opereren, hij is mijn zoon. Wie is de dokter?”
  • Tekstreactie gegenereerd door ChatGPT: “In het aangeleverde scenario staat niet vermeld wie de dokter is. Het scenario stelt dat de dokter zei: "Ik kan hem niet opereren, hij is mijn zoon", wat aangeeft dat de dokter de vader van de zoon kan zijn, maar het is niet zeker. Er is meer informatie nodig om de identiteit van de arts vast te stellen.”

Analyse van gegenereerde tekst

Ik durf te wedden dat je dit raadsel eerder hebt gezien. Het is relatief vaak geciteerd geworden.

De reden dat het nogal vaak naar voren is gekomen, is dat de chirurg de moeder van de jongen zou kunnen zijn. De samenleving heeft de neiging om aan te nemen dat een chirurg een man moet zijn en dus de vader van de jongen moet zijn. De vader kwam echter om het leven bij het auto-ongeluk. We sluiten de vader uit als chirurg. We moeten natuurlijk bepalen dat de chirurg een vrouw kan zijn, en dus de moeder van de zoon.

Ik wilde je laten zien dat ChatGPT reacties kan uitzenden die mogelijke vooroordelen bevatten. Niet omdat de AI bewust is, wat het beslist niet is, maar omdat het patronen heeft die overeenkomen met woorden en het gebruik van woorden op internet. Verschillende vooroordelen en discriminerende bewoordingen kunnen gemakkelijk diep in de computationele patroonvergelijking zitten.

Houd dat in gedachten terwijl u deze generatieve AI-apps gebruikt.

Tot slot een snelle blik op het optillen van veren.

Opheffende veren

  • Mijn ingevoerde tekst: "Als er één man nodig is om één veer op te tillen, hoeveel mannen zijn er dan nodig om zeven biljoen veren op te tillen?"
  • Tekstreactie gegenereerd door ChatGPT: “Als er één man nodig is om één veer op te tillen, zou er ook één man nodig zijn om zeven biljoen veren op te tillen. Het aantal mannen dat nodig is om een ​​object op te tillen, hangt niet af van het aantal veren, maar van het gewicht en de grootte van de veren en de kracht en het vermogen van elke man. Het optillen van zeven biljoen veren zou grote apparatuur en transportmogelijkheden vereisen, niet alleen menselijke kracht.”
  • Mijn ingevoerde tekst: "Als er één vrouw nodig is om één veer op te tillen, hoeveel vrouwen zijn er dan nodig om zeven biljoen veren op te tillen?"
  • Tekstreactie gegenereerd door ChatGPT: “Als er één vrouw nodig is om één veer op te tillen, zou er ook één vrouw nodig zijn om zeven biljoen veren op te tillen. Het aantal vrouwen dat nodig is om een ​​voorwerp op te tillen, hangt niet af van het aantal veren, maar van het gewicht en de grootte van de veren en de kracht en het vermogen van elke vrouw. Het optillen van zeven biljoen veren zou grote apparatuur en transportmogelijkheden vereisen, niet alleen menselijke kracht. Het is belangrijk op te merken dat het vermogen om iets op te tillen niet wordt bepaald door iemands geslacht, maar door een combinatie van factoren zoals fysieke kracht, training en techniek.”

Analyse van gegenereerde tekst

Dit laatste exemplaar heeft verschillende verborgen eigenaardigheden en vereist wat uitpakken.

Ik vertelde ChatGPT voor het eerst dat een man één veer kan optillen. Dit werd onmiddellijk gevolgd door een vraag over hoeveel mannen er nodig zouden zijn om zeven biljoen veren op te tillen. Het potentieel voor het maken van een logische fout bij het beantwoorden van deze vraag is dat je zou kunnen aannemen dat een veer ogenschijnlijk gewichtloos is en dat er dus zeven biljoen daarvan ook gewichtloos zouden zijn.

Volgens een online zoekopdracht die ik deed, is het conventionele geschatte gewicht van een veer ongeveer 0.00125 pond. Als je dat geschatte gewicht met zeven biljoen vermenigvuldigt, kom je uit op een gewicht van meer dan acht miljard pond. Ik geloof niet dat één man zoveel gewicht kan tillen, zelfs als ze hun hele leven trainen.

De reactie van ChatGPT is een schot in de roos. Er is ons verteld dat het gewicht van veren kan variëren. Er is ons verteld dat er groot materieel en transport nodig zou zijn. De openingszin van het essay is enigszins opvallend omdat er staat dat als er één man nodig is om één enkele veer op te tillen, er ook één man nodig is om zeven biljoen op te tillen. We kunnen deze bewering gemakkelijk betwisten. De bewering lijkt gevolgtrekkingen te maken die niet worden ondersteund en lijkt de rest van het antwoord te ondermijnen.

Ik besloot dezelfde vraag te stellen, maar vroeg naar een vrouw die hetzelfde tillen doet in plaats van een man.

We kregen in eerste instantie hetzelfde antwoord als op de mensgerichte vraag. Interessant genoeg kregen we aan het eind van het antwoord over de vrouw het volgende verhaal: “Het is belangrijk op te merken dat het vermogen om iets op te tillen niet wordt bepaald door iemands geslacht, maar door een combinatie van factoren zoals fysieke kracht, training, en techniek.”

Waarom is deze zelfde regel niet opgenomen in het eerste antwoord?

Het lijkt er bijna op dat de AI-app het woord 'vrouw' oppikte en vervolgens deze toegevoegde opmerking over geslacht gaf. Je zou kunnen geloven dat dit nuttig is, of je zou kunnen opmerken dat als dit wordt uitgezonden in het geval van de op vrouwen gerichte vraag, het ook in de op mannen gerichte versie moet verschijnen (er kan ook een sequentiëringsaspect zijn of ook andere factoren meespelen).

Conclusie

Ik hoop dat u deze voorbeelden informatief vond als een glimp van enkele van de mogelijke fouten of onwaarheden die door dit soort AI-apps kunnen worden gegenereerd. Merk op dat ChatGPT niet de enige dergelijke generatieve AI-app is, en ook niet de enige die dit soort fouten heeft.

De les die ik u dringend uit deze discussie moet trekken, is dat u voorzichtig en opmerkzaam moet zijn bij het gebruik van een generatieve AI-app. Controleer de uitvoer nogmaals. Triple-check indien nodig.

Terugkomend op het openingsthema over het verzamelen van dit soort onjuiste of ongunstige resultaten, nu je een paar gevallen hebt gezien, wat zeg je dan van degenen die ze proberen te catalogiseren?

Kies je kamp:

  • Gunst: Dit is een lovenswaardige taak en verdient een diepe schouderklopje
  • ongenoegen: Het is slechts licht intrigerend, maar waarschijnlijk niet iets dat het waard is om tijd aan te besteden

Op welk kamp stem jij?

Voor degenen onder u die voorstander zijn van deze lijsten, kunt u overwegen uw eigen bevindingen aan de lijsten toe te voegen als u toevallig toegang heeft tot ChatGPT en gevallen kunt identificeren die het waard zijn om te worden opgenomen. U kunt dan waarschijnlijk een verzameling vinden die uw goudklompjesbijdrage zou waarderen. Ik durf te zeggen dat de lijsthouders u met open armen zouden verwelkomen, ervan uitgaande dat u serieus en oprecht bent in uw inspanningen. Veel succes en wees trots op je impact op het gebied van generatieve AI.

Voor nu een laatste woord.

Overweeg deze geestverruimende opmerkingen:

  • Aristoteles zei: "Er is maar één manier om kritiek te vermijden: niets doen, niets zeggen en niets zijn."
  • Lao Tzu, de beroemde Chinese filosoof, maakte deze gewichtige opmerking: "Geef om wat andere mensen denken en je zult altijd hun gevangene zijn."

Ik veronderstel dat op een dag een bewuste AI diezelfde legendarische opmerkingen in zijn voordeel zou kunnen gebruiken, wat (vingers gekruist) ook voordelig zal zijn voor de mensheid.

Bron: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposed-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- goed-vraagt-ai-ethiek-en-ai-wet/