Duiken in de buzz en fanfare over generatieve AI ChatGPT, inclusief dreigende AI-ethiek en AI-wetsoverwegingen

Ik vermoed dat je inmiddels hebt gehoord van of misschien wel hebt gezien over schetterende nieuwskoppen of berichten op sociale media waarin het meest populaire en nieuwste gebruik van AI wordt aangeprezen dat ogenschijnlijk door mensen geschreven tekstgeoriënteerde verhalen genereert via een AI-toepassing die bekend staat als ChatGPT.

Als je nog niets hebt gehoord of gelezen over deze nieuwe AI-app, maak je geen zorgen, ik zal je op de hoogte brengen.

Voor degenen onder u die al op de hoogte zijn van ChatGPT, misschien vindt u enkele van mijn insider-scoops hierin interessant over wat het doet, hoe het werkt en waar u op moet letten. Al met al zal bijna iedereen die om de toekomst geeft, onvermijdelijk willen ontdekken waarom iedereen zich druk maakt over deze AI-toepassing.

Ter verduidelijking: ongebreidelde voorspellingen zijn dat dit type AI levens gaat veranderen, inclusief de levens van degenen die nog niets weten over ChatGPT of andere soortgelijke AI-mogelijkheden. Zoals ik even zal uitleggen, zullen deze AI-apps vrij wijdverspreide gevolgen hebben op manieren waarop we nu pas beginnen te anticiperen.

Maak je klaar voor de achtbaanrit die bekend staat als generatieve AI.

Ik zal beginnen met wat belangrijke achtergrondinformatie over generatieve AI en het eenvoudigste scenario gebruiken waarbij AI betrokken is die kunst genereert. Nadat we je door die basis hebben geleid, gaan we in op generatieve AI die tekstgeoriënteerde verhalen genereert.

Zie voor mijn doorlopende en uitgebreide dekking van AI in het algemeen, inclusief AI-ethiek en AI-wetgeving de link hier en de link hier, om er een paar te noemen.

Generatieve AI die gegenereerde kunst produceert

Ik verwijs naar dit type of deze stijl van AI als zijnde generatief dat is de terminologie van de AI-liefhebber die wordt gebruikt om AI te beschrijven die output genereert zoals tekst, afbeeldingen, video en dergelijke.

Het is je misschien eerder dit jaar opgevallen dat er een grote golf was over het kunnen genereren van kunstzinnige afbeeldingen door een regel of twee tekst in te voeren. Het idee is vrij simpel. U maakt gebruik van een AI-app waarmee u een tekst naar keuze kunt invoeren. U kunt bijvoorbeeld typen dat u wilt zien hoe een kikker met een hoed bovenop een schoorsteen eruit zou zien. De AI-app analyseert vervolgens uw woorden en probeert een afbeelding te genereren die over het algemeen overeenkomt met de woorden die u hebt opgegeven. Mensen hebben enorm genoten van het genereren van allerlei soorten afbeeldingen. De sociale media raakten er een tijdje mee verstopt.

Hoe doet generatieve AI de generatie-aspecten?

In het geval van de tekst-naar-kunststijl van generatieve AI werd een hele reeks online kunst vooraf gescand via computeralgoritmen en werden de elementen van de gescande kunst computationeel geanalyseerd op de betrokken componenten. Stel je een online foto voor met een kikker erin. Stel je een andere afzonderlijke afbeelding voor met een schoorsteen erin. Op weer een andere foto staat een hoed. Deze componenten worden rekenkundig geïdentificeerd, soms zonder menselijke hulp en soms via menselijke begeleiding, en vervolgens wordt een soort wiskundig netwerk geformuleerd.

Als je later langskomt en vraagt ​​om een ​​kunstwerk te laten genereren met een kikker met een hoed op een schoorsteen, gebruikt de AI-app het wiskundige netwerk om die elementen te vinden en samen te voegen. Het resulterende kunstbeeld kan al dan niet uitkomen zoals je had gehoopt. Misschien ziet de kikker er lelijk uit. De hoed mag dan een grote stovepipe-hoed zijn, maar je wenste een slankere hoed in derby-stijl. Ondertussen staat de afbeelding van de kikker op de schoorsteen, hoewel je de kikker in plaats daarvan wilde laten zitten.

Het handige van dit soort AI-apps is dat je meestal je verzoek kunt herhalen en desgewenst ook aanvullende specificaties kunt toevoegen. Je zou dus je verzoek kunnen herhalen en aangeven dat je een mooie kikker met een derbyhoed op een schoorsteen wilt hebben. Voila, de nieuw gegenereerde afbeelding komt misschien dichter bij wat je wilde.

Sommigen hebben zich afgevraagd of de AI alleen maar uitbraakt waar het op getraind is. Het antwoord is nee (meestal). De afbeelding van een kikker die de AI laat zien voor uw verzoek, is niet noodzakelijkerwijs een exact duplicaat van een verwante afbeelding in de trainingsset. De meeste van deze generatieve AI-apps zijn opgezet om alle afbeeldingen die ze oorspronkelijk vinden te generaliseren. Zie het op deze manier. Stel dat je duizend afbeeldingen van kikkers hebt verzameld. Je zou ervoor kunnen kiezen om geleidelijk uit te zoeken hoe een kikker eruit ziet, door duizend afbeeldingen die je hebt gevonden bij elkaar te brengen. Als zodanig is de kikker die je uiteindelijk tekent niet noodzakelijkerwijs precies zoals degene die je voor trainingsdoeleinden hebt gebruikt.

Dat gezegd hebbende, bestaat de kans dat het AI-algoritme niet zoveel generaliseert als wordt aangenomen. Als er unieke trainingsafbeeldingen zijn en geen soortgelijke, kan het zijn dat de AI "generaliseert" in de buurt van de enige specifieke instantie die het heeft ontvangen. In dat geval zou de poging van het algoritme om later een gevraagd beeld van die aard te produceren, opmerkelijk veel kunnen lijken op wat er in de trainingsset zat.

Ik zal even pauzeren om enkele gedachten te geven met betrekking tot AI-ethiek en AI-wetgeving.

Zoals gezegd, als de generatieve AI op internet wordt getraind, betekent dit dat alles wat openbaar op internet is geplaatst, mogelijk door het AI-algoritme zal worden gebruikt. Stel dat je een knap kunstwerk hebt waar je aan hebt gewerkt en je gelooft dat je de rechten op het kunstwerk bezit. Je plaatst er een foto van online. Iedereen die uw kunstwerk wil gebruiken, wordt verondersteld naar u toe te komen en u een vergoeding te betalen voor dat gebruik.

Je voelt misschien al waar dit naartoe gaat.

Hou vol voor het slechte nieuws.

Dus een generatieve AI-app die wordt getraind door inhoud op internet breed te onderzoeken, detecteert uw wonderbaarlijke kunstwerk. De afbeelding van uw kunstwerk wordt opgenomen in de AI-app. Kenmerken van uw kunstenaarschap worden nu wiskundig gecombineerd met andere gescande kunstwerken. Als de AI wordt gevraagd om een ​​kunstwerk te maken, kan hij jouw stuk gebruiken bij het samenstellen van een nieuw gegenereerde kunstafbeelding. Die mensen die de kunst verzamelen, realiseren zich misschien niet dat de kunst in zekere zin jouw specifieke vingerafdrukken heeft, omdat het AI-algoritme enigszins op je meesterwerk is gedrukt.

Er is ook een kans dat als uw kunstwerk buitengewoon uniek was, het door de AI-app zou kunnen worden hergebruikt om het kunstenaarschap beter te laten zien. Als zodanig is uw kunstwerk soms nauwelijks herkenbaar in een nieuw gegenereerd AI-kunstwerk, terwijl het in andere gevallen kan zijn dat het gegenereerde kunstwerk bijna een sprekend beeld is van wat u vermoedde.

Het is dan ook tijd om AI-ethiek in dit scenario te betrekken.

Is het ethisch juist of gepast dat de generatieve AI kunstwerken heeft gegenereerd die overeenkomsten vertonen met jouw kunst?

Sommigen zeggen ja, en sommigen zeggen nee.

Het ja-kamp, ​​dat gelooft dat dit ethisch perfect in orde is, zou misschien beweren dat sinds je je kunstwerk online hebt geplaatst, het openstaat voor wie of wat dan ook het wil kopiëren. Ze kunnen ook beweren dat de nieuwe kunst geen exacte kopie is van je werk. U kunt dus niet klagen. Als we op de een of andere manier zouden stoppen met al het hergebruik van bestaande kunst, zouden we nooit nieuwe kunst hebben om naar te kijken. Bovendien zouden we vermoedelijk in een verhitte discussie kunnen komen over de vraag of jouw specifieke kunstwerk al dan niet werd gekopieerd of geëxploiteerd - het zou een ander kunstwerk kunnen zijn waarvan je niet eens wist dat het bestond en dat in feite de onderliggende bron was.

Het nee-kamp zou er sterk op aandringen dat dit buitengewoon onethisch is. Geen twee manieren over. Ze zouden beweren dat je wordt opgelicht. Alleen omdat je kunstwerk online is geplaatst, wil nog niet zeggen dat iedereen langs kan komen om het vrijelijk te kopiëren. Misschien heb je de kunst gepost met een strenge waarschuwing om het niet te kopiëren. Ondertussen kwam de AI langs en verwijderde de kunst en sloeg de waarschuwingen volledig over. Schandelijk! En het excuus dat het AI-algoritme is gegeneraliseerd en niet de kern van nauwkeurig kopiëren doet, lijkt een van die nep-excuses. Het heeft ontdekt hoe je je kunstenaarschap kunt exploiteren en dit is een schijnvertoning en een schande.

Hoe zit het met de juridische aspecten van deze generatieve AI?

Er is veel handwringing over de juridische bijzonderheden van generatieve AI. Kijkt u naar federale wetten over intellectuele eigendomsrechten (IE)? Zijn die scherp genoeg om te solliciteren? Hoe zit het wanneer de generatieve AI internationale grenzen overschrijdt om de trainingsset te verzamelen? Past het door de AI gegenereerde kunstwerk in de verschillende uitsluitingscategorieën die verband houden met IP-rechten? Enzovoort.

Sommigen zijn van mening dat we nieuwe AI-gerelateerde wetten nodig hebben om specifiek met dit soort generatieve AI-situaties om te gaan. In plaats van te proberen bestaande wetten te schoffelen, is het misschien schoner en gemakkelijker om nieuwe wetten op te stellen. Zelfs als bestaande wetten van toepassing zijn, kunnen de kosten en vertragingen bij het proberen om gerechtelijke stappen te ondernemen enorm zijn en uw vermogen belemmeren om door te gaan als u denkt dat u oneerlijk en illegaal benadeeld bent. Zie voor mijn verslaggeving over deze onderwerpen de link hier.

Ik zal een extra draai geven aan deze overwegingen op het gebied van AI-ethiek en AI-wetgeving.

Wie bezit de rechten op de gegenereerde output van de AI?

Je zou kunnen zeggen dat de mensen die de AI ontwikkelden die rechten zouden moeten bezitten. Niet iedereen is het eens met zo'n stelling. Je zou kunnen zeggen dat AI die rechten bezit, maar dit wordt vertroebeld door het feit dat we over het algemeen niet erkennen dat AI dergelijke rechten kan bezitten. Totdat we weten of AI rechtspersoonlijkheid gaat krijgen, is het op dit front onzeker, zie mijn analyse op de link hier.

Ik vertrouw erop dat je nu een schijn hebt van wat generatieve AI doet. We kunnen vervolgens verder gaan met het overwegen van de use case waarbij op tekst gebaseerde verhalen worden gegenereerd.

Generatieve AI die op tekst gebaseerde verhalen genereert

Nu we het gebruik van generatieve AI hebben besproken om kunst of afbeeldingen te produceren, kunnen we gemakkelijk naar dezelfde algemene formuleringen kijken om op tekst gebaseerde verhalen te produceren.

Laten we beginnen met iets dat we allemaal kennen en elke dag gebruiken. Wanneer u tekst invoert in een tekstverwerkingspakket of uw e-mailapp, is de kans groot dat er een automatische correctiefunctie is die uw spelfouten probeert op te vangen.

Toen dat soort automatische ondersteuningsfunctie eenmaal algemeen werd, bestond het volgende, meer geavanceerde facet uit een mogelijkheid voor automatisch aanvullen. Voor automatisch aanvullen is de opvatting dat wanneer u begint met het schrijven van een zin, de tekstverwerkings- of e-mailapp probeert te voorspellen welke woorden u vervolgens waarschijnlijk zult typen. Het kan slechts een of twee woorden vooruit voorspellen. Als de mogelijkheid bijzonder is versterkt, kan het de rest van uw hele zin voorspellen.

We kunnen dit in een hogere versnelling trappen. Stel dat u begint met het schrijven van een zin en de automatische aanvulling genereert de rest van de hele alinea. Voila, je hoefde de alinea niet rechtstreeks te schrijven. In plaats daarvan deed de app dat voor jou.

Oké, dat lijkt handig. Duw deze verder door. U begint een zin en de automatische aanvulling stelt de rest van uw volledige bericht samen. Dit kan uit veel alinea's bestaan. Het wordt allemaal gegenereerd doordat u slechts een deel van een zin invoert of misschien een volledige zin of twee.

Hoe komt de automatische aanvulling erachter wat u waarschijnlijk gaat typen?

Blijkt dat mensen de neiging hebben om steeds weer dezelfde dingen te schrijven. Misschien niet, maar het punt is dat wat je schrijft waarschijnlijk iets is dat iemand anders al heeft geschreven. Het is misschien niet precies wat u van plan bent te schrijven. In plaats daarvan zou het enigszins kunnen lijken op wat je ging schrijven.

Laten we dezelfde logica gebruiken die werd gebruikt bij het genereren van kunst of afbeeldingen.

Een generatieve AI-app wordt voorbereid door naar internet te gaan en allerlei soorten tekst te onderzoeken die in de online wereld bestaat. Het algoritme probeert computationeel te identificeren hoe woorden gerelateerd zijn aan andere woorden, hoe zinnen gerelateerd zijn aan andere zinnen en hoe alinea's gerelateerd zijn aan andere alinea's. Dit alles wordt wiskundig gemodelleerd en er wordt een computernetwerk opgezet.

Dit is wat er vervolgens gebeurt.

U besluit gebruik te maken van een generatieve AI-app die gericht is op het genereren van op tekst gebaseerde verhalen. Bij het starten van de app voer je een zin in. De AI-app onderzoekt je zin rekenkundig. De verschillende wiskundige relaties tussen de woorden die u hebt ingevoerd, worden in het wiskundige netwerk gebruikt om te proberen vast te stellen welke tekst daarna zou komen. Van een enkele regel die u schrijft, kan het zijn dat een heel verhaal of verhaal kan worden gegenereerd.

Nu zou je kunnen denken dat dit een aap-zie-aap-doen is en dat de resulterende tekst geproduceerd door de generatieve AI onzinnig zal zijn. Het zou je verbazen hoe goed dit soort AI aan het worden is. Met een dataset die groot genoeg is voor training en met voldoende computerverwerking om er uitgebreid doorheen te bladeren, kan de output van een generatieve AI verbazingwekkend indrukwekkend zijn.

Je zou naar de uitvoer kijken en waarschijnlijk zweren dat het gegenereerde verhaal rechtstreeks door een mens is geschreven. Het is alsof je straf is overhandigd aan een mens die zich achter de schermen verschuilt, en ze schreven je snel een heel verhaal dat bijna volledig overeenkwam met wat je anders zou zeggen. Zo goed zijn de wiskundige en computationele onderbouwing geworden.

Wanneer u een generatieve AI gebruikt die op tekst gebaseerde verhalen produceert, heeft u meestal de neiging om een ​​startvraag of een of andere bewering te geven. U typt bijvoorbeeld "Vertel me over vogels in Noord-Amerika" en de generatieve AI beschouwt dit als een bewering of een vraag waarbij de app vervolgens probeert "vogels" en "Noord-Amerika" te identificeren met welke getrainde dataset dan ook. het heeft. Ik weet zeker dat je je kunt voorstellen dat er op internet een enorme hoeveelheid tekst bestaat die vogels van Noord-Amerika heeft beschreven, waaruit de AI tijdens de vooropleiding de tekst heeft gehaald en gemodelleerd.

De uitvoer die voor u wordt geproduceerd, is waarschijnlijk niet de exacte tekst van een bepaalde online site. Bedenk dat hetzelfde eerder werd vermeld over gegenereerde kunstwerken. De tekst zal een samenstelling zijn van soorten, stukjes en beetjes die wiskundig en computationeel met elkaar verbonden zijn. Een gegenereerd tekstgebaseerd verhaal zou in het algemeen uniek lijken, alsof deze specifieke tekst nooit eerder door iemand is geschreven.

Natuurlijk kunnen er veelbetekenende aanwijzingen zijn. Als je de generatieve AI vraagt ​​of laat ingaan op buitengewoon obscure onderwerpen, is de kans groter dat je een tekstuitvoer ziet die lijkt op de bronnen die worden gebruikt. In het geval van tekst is de kans echter meestal kleiner dan bij kunst. De tekst wordt een combinatie van de specifieke kenmerken van het onderwerp en toch ook vervaagd en versmolten met de algemene soorten tekst die in het algemene discours worden gebruikt.

De wiskundige en computationele technieken en technologieën die voor deze generatieve AI-mogelijkheden worden gebruikt, worden door AI-insiders vaak Large Language Models (LLM's) genoemd. Simpel gezegd, dit is een modellering van menselijke taal op grote schaal. Voorafgaand aan het internet zou het moeilijk zijn geweest om een ​​extreem grote dataset met tekst te vinden die online beschikbaar was en goedkoop. U had waarschijnlijk toegang tot tekst moeten kopen en het zou niet noodzakelijkerwijs al beschikbaar zijn geweest in elektronische of digitale formaten.

Zie je, internet is ergens goed voor, namelijk een kant-en-klare bron zijn voor het trainen van generatieve AI.

Scherp nadenken over generatieve AI die tekst produceert

We zouden even de tijd moeten nemen om na te denken over de gevolgen van AI-ethiek en AI-wetten van de generatieve AI die op tekst gebaseerde verhalen produceert.

Vergeet niet dat we ons in het geval van gegenereerde kunst zorgen maakten over de ethiek van het AI-algoritme dat kunst produceert op basis van andere door mensen geproduceerde kunstwerken. Dezelfde zorg rijst in de op tekst gebaseerde instantie. Zelfs als de gegenereerde tekst er niet precies uitziet als de originele bronnen, kun je stellen dat de AI de tekst toch uitbuit en de oorspronkelijke producent wordt opgelicht. De andere kant van die medaille is dat tekst op internet, indien vrij beschikbaar, door elk mens kan worden gebruikt om hetzelfde te doen, dus waarom zou u de AI niet hetzelfde laten doen?

De complicaties die gepaard gaan met de juridische aspecten van Intellectuele Eigendomsrechten komen ook naar voren in het geval van op tekst gebaseerde generatieve AI. Stel dat de tekst waarop getraind wordt auteursrechtelijk beschermd is, zou je dan zeggen dat de gegenereerde tekst die wettelijke rechten schendt? Het ene antwoord is dat het zo is, en het andere antwoord is dat het niet zo is. Realiseer je dat de gegenereerde tekst waarschijnlijk nogal afwijkt van de originele tekst, daarom kan het moeilijk zijn om te beweren dat de originele tekst werd opgelicht.

Een andere reeds genoemde zorg zijn ook de eigendomsrechten op de geproduceerde op tekst gebaseerde verhalen door de generatieve AI. Stel dat je in de AI typt "Schrijf een grappig verhaal over mensen die in de rij staan ​​om koffie te halen" en de generatieve AI produceert pagina's na pagina's van een hilarisch verhaal dat helemaal gaat over een stel mensen die elkaar toevallig ontmoeten terwijl ze wachten op een kopje koffie. Java.

Van wie is dat verhaal?

Je zou kunnen beweren dat je, aangezien je de prompt hebt ingevoerd, met recht het gegenereerde verhaal zou moeten "bezitten". Whoa, sommigen zouden zeggen, de AI was hoe het verhaal werd gegenereerd, dus de AI "bezit" het heerlijke verhaal. Jakkes, anderen zouden aansporen, als de AI stukjes en beetjes zou nemen van allerlei andere verwante verhalen op internet, zouden al die menselijke schrijvers in het eigendom moeten delen.

De kwestie is onopgelost en we komen nu pas in een juridisch moeras terecht dat zich de komende jaren zal voltrekken.

Er zijn nog meer zorgen over AI-ethiek en AI-wetten die een rol gaan spelen.

Sommige mensen die generatieve AI-apps hebben gebruikt, beginnen te geloven dat de AI-app bewust is. Het moet zo zijn, roepen ze uit. Hoe kun je anders de verbazingwekkende antwoorden en verhalen verklaren die AI kan produceren? We hebben eindelijk bewuste AI bereikt.

Ze zijn absoluut fout.

Dit is geen bewuste AI.

Als ik dit zeg, raken sommige insiders van AI van streek en doen ze alsof iedereen die ontkent dat de AI bewust is, tegelijkertijd zegt dat de AI waardeloos is. Dat is een vals en verkeerd geformuleerd argument. Ik ben het er openlijk mee eens dat deze generatieve AI behoorlijk indrukwekkend is. We kunnen het voor allerlei doeleinden gebruiken, zoals ik later hierin zal vermelden. Toch is het niet bewust. Zie voor mijn uitleg waarom dit soort AI-doorbraken niet op gevoel zijn de link hier.

Een andere buitensporige en ronduit onjuiste bewering van sommigen is dat generatieve AI met succes de Turing-test heeft gewonnen.

Dat heeft het zeker niet zo gedaan.

De Turing-test is een soort test om vast te stellen of een AI-app op gelijke voet kan staan ​​met de mens. Oorspronkelijk bedacht als het nabootsingsspel door Alan Turing, de grote wiskundige en computerpionier, is de test op zich eenvoudig. Als je een mens achter een gordijn zou plaatsen en een AI-app achter een ander gordijn, en je zou ze beide vragen stellen, waarvan je niet zou kunnen bepalen welke de machine was en welke de mens, dan zou de AI met succes de Turing-test. Zie voor mijn uitgebreide uitleg en analyse van de Turing-test de link hier.

Die mensen die blijven roepen dat generatieve AI de Turing-test heeft doorstaan, weten niet waar ze het over hebben. Ze zijn ofwel onwetend over wat de Turing-test is, of ze hypen helaas AI op een manier die verkeerd en volkomen misleidend is. Hoe dan ook, een van de essentiële overwegingen bij de Turing-test bestaat uit welke vragen er gesteld moeten worden, samen met wie de vragen stelt en ook om te beoordelen of de antwoorden van menselijke kwaliteit zijn.

Mijn punt is dat mensen een tiental vragen aan generatieve AI typen, en wanneer de antwoorden plausibel lijken, verkondigen deze mensen onbezonnen dat de Turing-test is geslaagd. Nogmaals, dit is onjuist. Een dunne reeks vragen invoeren en hier en daar wat porren is noch de bedoeling noch de geest van de Turing-test. Stop met het maken van deze oneervolle beweringen.

Hier is een legitieme klacht waar je niet veel over hoort, hoewel ik denk dat het enorm de moeite waard is.

De AI-ontwikkelaars hebben de generatieve AI meestal zo ingesteld dat deze reageert alsof een mens reageert, namelijk door de formulering van "ik" of "ik" te gebruiken wanneer het de uitvoer samenstelt. Wanneer u bijvoorbeeld wordt gevraagd om een ​​verhaal te vertellen over een hond die verdwaald is in het bos, kan de generatieve AI een tekst geven die zegt: "Ik zal u alles vertellen over een hond genaamd Sam die verdwaald is in het bos. Dit is een van mijn favoriete verhalen.”

Merk op dat de bewoording zegt: "Ik zal je vertellen ..." en dat het verhaal "een van mijn favoriete ..." is, zodat iedereen die deze output leest subtiel in de mentale val zal trappen om de AI te antropomorfiseren. Antropomorfisering houdt in dat mensen proberen mensachtige eigenschappen en menselijke gevoelens toe te kennen aan niet-mensen. Je wordt gesust door te geloven dat deze AI menselijk of mensachtig is, omdat de formulering in de uitvoer met opzet op die manier is bedacht.

Dit hoeft niet zo bedacht te zijn. De output zou kunnen zeggen: "Hier is een verhaal over een hond genaamd Sam die verdwaalde in het bos. Dit is een geliefd verhaal.” Je zou iets minder snel aannemen dat de AI menselijk of mensachtig is. Ik realiseer me dat je nog steeds in die val kunt trappen, maar de attributen zijn in ieder geval niet zo uitgesproken.

Kortom, je hebt generatieve AI die op tekst gebaseerde verhalen produceert op basis van hoe mensen schrijven, en de resulterende output lijkt alsof het is geschreven zoals een mens iets zou schrijven. Dat is heel logisch, omdat de AI wiskundig en computationeel een patroon volgt op wat mensen hebben geschreven. Voeg hier nu het gebruik van antropomorfe bewoordingen aan toe, en je krijgt een perfecte storm die mensen ervan overtuigt dat de AI bewust is of de Turing-test heeft doorstaan.

Er doen zich veel AI-ethiek- en AI-wetgevingskwesties voor.

Ik zal je raken met de nogal bedreigende vertakkingen van deze generatieve AI.

Ga hiervoor zitten.

De op tekst gebaseerde verhalen die worden geproduceerd, zijn niet noodzakelijkerwijs waarheidsgetrouw of nauwkeurig. Het is belangrijk om te beseffen dat de generatieve AI niet "begrijpt" wat er wordt gegenereerd (niet op een menselijke manier, zou men kunnen beweren). Als de tekst die in de training werd gebruikt onwaarheden bevatte, is de kans groot dat diezelfde onwaarheden worden ingekookt in het generatieve AI wiskundige en computationele netwerk.

Bovendien heeft generatieve AI meestal geen wiskundige of computationele middelen om te onderscheiden dat de geproduceerde tekst onwaarheden bevat. Als je kijkt naar het gegenereerde outputverhaal, zal het verhaal er op het eerste gezicht meestal volledig 'waarachtig' uitzien. Je hebt misschien geen haalbare manier om te detecteren dat onwaarheden in het verhaal zijn ingebed.

Stel, je stelt een medische vraag aan een generatieve AI. De AI-app produceert een lang verhaal. Stel je voor dat het grootste deel van het verhaal klopt en redelijk lijkt. Maar als u geen medisch specialist bent, realiseert u zich misschien niet dat er in het verhaal enkele cruciale onwaarheden zijn. Misschien zegt de tekst dat je vijftig pillen in twee uur moet innemen, terwijl in werkelijkheid de echte medische aanbeveling is om twee pillen in twee uur in te nemen. Je zou het geclaimde advies van vijftig pillen kunnen geloven, simpelweg omdat de rest van het verhaal redelijk en verstandig leek.

Het hebben van het AI-patroon op onwaarheden in de originele brongegevens is slechts één manier om de AI scheef te laten gaan in deze verhalen. Afhankelijk van het wiskundige en computationele netwerk dat wordt gebruikt, zal de AI proberen dingen te "verzonnen". In AI-termen wordt dit de AI genoemd hallucineren, wat een vreselijke terminologie is waar ik het oprecht mee oneens ben en die niet als slogan moet worden voortgezet, zie mijn analyse op de link hier.

Stel dat je de generatieve AI hebt gevraagd om een ​​verhaal over een hond te vertellen. De AI kan er uiteindelijk voor zorgen dat de hond kan vliegen. Als het verhaal dat je wilde, gebaseerd zou zijn op de werkelijkheid, lijkt een vliegende hond onwaarschijnlijk. Jij en ik weten dat honden van nature niet kunnen vliegen. Geen probleem, zegt u, aangezien iedereen dit weet.

Stel je een kind op school voor dat probeert over honden te leren. Ze gebruiken generatieve AI. Het produceert uitvoer die zegt dat honden kunnen vliegen. Het kind weet niet of dit waar is of niet en gaat ervan uit dat het waar moet zijn. In zekere zin is het alsof het kind naar een online encyclopedie ging en zei dat honden kunnen vliegen. Het kind zal voortaan misschien volhouden dat honden inderdaad kunnen vliegen.

Terugkomend op het raadsel over AI-ethiek en AI-wetten: we staan ​​nu op het punt een bijna oneindige hoeveelheid op tekst gebaseerde inhoud te kunnen produceren, gedaan via het gebruik van generatieve AI, en we zullen onszelf overspoelen met ontelbare verhalen die zijn ongetwijfeld vol onwaarheden en andere gerelateerde stromen van desinformatie en verkeerde informatie.

Ja, met een druk op de knop en een paar woorden ingevoerd in een generatieve AI, kun je een hele reeks tekstuele verhalen genereren die volkomen plausibel en waarheidsgetrouw lijken. Deze kunt u dan online plaatsen. Andere mensen zullen het materiaal lezen en aannemen dat het waar is. Bovendien zullen andere generatieve AI die langskomt om getraind te worden in de tekst, mogelijk dit materiaal tegenkomen en het verpakken in de generatieve AI die het aan het bedenken is.

Het is alsof we nu steroïden toevoegen om desinformatie en verkeerde informatie te genereren. We stevenen af ​​op desinformatie en desinformatie op een enorme galactische wereldschaal.

Er is bijna geen menselijke arbeid nodig om alles te produceren.

Generatieve AI en ChatGPT

Laten we naar de headliner van deze discussie over generatieve AI gaan. We hebben nu de aard van generatieve AI besproken die over het algemeen op tekst gebaseerde verhalen produceert. Er zijn veel van dergelijke generatieve AI-apps beschikbaar.

Een van de AI-apps die vooral bekendheid heeft gekregen, staat bekend als ChatGPT.

Een public relations-coup is verspreid over sociale media en het nieuws - ChatGPT krijgt nu alle glorie. Het licht schijnt fel op ChatGPT. Het krijgt zijn duizelingwekkende vijf minuten roem.

ChatGPT is de naam van een generatieve AI-app die is ontwikkeld door een entiteit die bekend staat als OpenAI. OpenAI is vrij bekend op het gebied van AI en kan worden beschouwd als een AI-onderzoekslaboratorium. Ze hebben de reputatie grenzen te verleggen als het gaat om AI voor Natural Language Processing (NLP), samen met andere AI-ontwikkelingen. Ze zijn begonnen aan een reeks AI-apps die ze bedachten als GPT (Generative Pre-Trained Transformers). Elke versie krijgt een nummer. Ik heb eerder geschreven over hun GPT-3 (versie 3 van hun GPT-serie), zie de link hier.

GPT-3 kreeg behoorlijk wat aandacht toen het voor het eerst werd uitgebracht (het ging ongeveer twee jaar geleden in brede bètatests en werd in 2022 op grotere schaal beschikbaar gemaakt). Het is een generatieve AI-app die bij het invoeren van een prompt op tekst gebaseerde verhalen zal produceren of genereren. Alles wat ik eerder noemde over het algemene geval van generatieve AI-apps is fundamenteel van toepassing op GPT-3.

Er is lang gesuggereerd dat GPT-4 aan de gang is en degenen in het AI-veld hebben met ingehouden adem gewacht om te zien welke verbeteringen of verbeteringen er zijn in GPT-4 in tegenstelling tot GPT-3. In deze serie komt de nieuwste tussenpersoon, bekend als GPT-3.5. Ja, dat klopt, het zit tussen de uitgebrachte GPT-3 en de nog niet uitgebrachte GPT 4.0 in.

OpenAI heeft hun GPT-3.5 gebruikt om een ​​uitloper te creëren die ze ChatGPT noemden. Er wordt gezegd dat ze een aantal speciale verfijningen hebben aangebracht om ChatGPT te maken. Het idee is bijvoorbeeld dat ChatGPT is toegesneden op het kunnen werken op een chatbot-manier. Dit omvat het "gesprek" dat u met de AI-app voert, wordt bijgehouden door de AI en wordt gebruikt om vervolgens gevraagde verhalen te produceren.

Veel van de generatieve AI-apps waren vaak een eenmalig ontwerp. Je hebt een prompt ingevoerd, de AI heeft een verhaal gegenereerd, en dat is alles. Uw volgende prompt heeft geen invloed op wat er daarna gebeurt. Het is alsof u elke keer dat u een prompt invoert, opnieuw begint.

Niet zo in het geval van ChatGPT. Op een nog niet onthulde manier probeert de AI-app patronen in uw prompts te detecteren en lijkt daarom sneller te reageren op uw verzoeken (deze AI-app wordt beschouwd als open toegankelijk omdat iedereen zich kan aanmelden om het te gebruiken, maar het is nog steeds gepatenteerd en beslist niet een open source AI-app die zijn innerlijke werking onthult). Denk bijvoorbeeld aan mijn eerdere indicatie dat je een kikker met een hoed op een schoorsteen wilt zien. Een methode is dat elke keer dat u zo'n verzoek doet, alles opnieuw begint. Een andere methode zou zijn dat je door kunt gaan met wat je eerder hebt gezegd. Je zou de AI dus misschien kunnen vertellen dat je wilt dat de kikker gaat zitten, wat op zichzelf geen zin heeft, terwijl in de context van je eerdere prompt om een ​​kikker met een hoed op een schoorsteen te vragen, het verzoek schijnbaar logisch kan zijn.

Je vraagt ​​je misschien af ​​waarom ChatGPT ineens een hoogtijdagen lijkt te hebben en bloeit.

Gedeeltelijk komt dit omdat de ChatGPT beschikbaar is gemaakt voor iedereen die zich wilde aanmelden om het te gebruiken. In het verleden waren er vaak selectieve criteria over wie een nieuw beschikbare generatieve AI-app kon gebruiken. De provider zou vereisen dat u een AI-insider bent of misschien andere bepalingen heeft. Niet zo met ChatGPT.

Het nieuws verspreidde zich snel dat ChatGPT buitengewoon gebruiksvriendelijk en gratis te gebruiken was en kon worden gebruikt door u eenvoudig aan te melden waarvoor u alleen een e-mailadres hoeft op te geven. Als een snel vuur, plotseling en als opgestookt of aangespoord via virale berichten op sociale media, zou de ChatGPT-app meer dan een miljoen gebruikers hebben overschreden. De nieuwsmedia hebben het aspect benadrukt dat een miljoen mensen zich hebben aangemeld voor ChatGPT.

Hoewel dit zeker opmerkelijk en opmerkelijk is, moet u rekening houden met de context van deze aanmeldingen. Aanmelden is gratis en eenvoudig. De chatbot is supergemakkelijk te gebruiken en vereist geen voorafgaande training of ervaring. U voert alleen prompts van uw eigen keuze en bewoording in, en shazam, de AI-app biedt een gegenereerd verhaal. Een kind zou dit kunnen doen, wat voor sommigen eigenlijk een zorgwekkende zorg is, namelijk dat als kinderen ChatGPT gebruiken, ze twijfelachtig materiaal gaan leren (zoals in mijn eerder genoemde punt over dergelijke zaken)?

Het is misschien ook opmerkelijk om aan te geven dat sommige (veel?) van die miljoen aanmeldingen mensen zijn die waarschijnlijk de banden wilden trappen en niets anders deden. Ze maakten snel een account aan, speelden een tijdje met de AI-app, vonden het leuk en verrassend en plaatsten daarna misschien wat posts op sociale media om te laten zien wat ze vonden. Daarna loggen ze misschien nooit meer in, of gebruiken ze de AI-app in ieder geval alleen als er een bepaalde behoefte lijkt te ontstaan.

Anderen hebben er ook op gewezen dat de timing van het beschikbaar komen van ChatGPT samenviel met een tijd van het jaar die zorgde voor grote belangstelling voor de AI-app. Misschien hebben we tijdens de feestdagen meer tijd om te spelen met leuke items. Met de komst van sociale media werd dit ook een soort fenomeen. De klassieke FOMO (angst om iets te missen) heeft waarschijnlijk bijgedragen aan de verwarrende drukte. Natuurlijk, als je een miljoen vergelijkt met sommige populaire YouTube-influencers, zou je kunnen suggereren dat een miljoen een schamele hoeveelheid is in vergelijking met die vlogs die honderden miljoenen aanmeldingen of weergaven krijgen wanneer ze voor het eerst worden verwijderd of gepost.

Laten we niet afdwalen en er rekening mee houden dat voor een AI-app van experimentele aard de miljoen aanmeldingen zeker opschepperig zijn.

Mensen gebruikten meteen ChatGPT om verhalen te maken. Ze plaatsten vervolgens de verhalen en gutsten over het wonder daarvan. Verslaggevers en journalisten hebben zelfs "interviews" gedaan met ChatGPT, wat een beetje verontrustend is omdat ze in dezelfde antropomorfiserende val trappen (hetzij door feitelijke onwetendheid, hetzij door te hopen buitensporige meningen te vergaren voor hun artikelen). De onmiddellijke tendens was ook om te verklaren dat AI nu bewustzijn heeft bereikt of de Turing-test heeft doorstaan, waar ik eerder duidelijk commentaar op heb gegeven.

De maatschappelijke zorgen die door ChatGPT naar voren zijn gebracht, zijn echt degenen die al doorsijpelden als gevolg van eerdere versies van GPT en ook de vele LLM's en generatieve AI die al beschikbaar waren. Het verschil is dat nu de hele wereld ervoor kiest om mee te doen. Dat is handig. We moeten ervoor zorgen dat AI-ethiek en AI-wetgeving de nodige bekendheid en aandacht krijgen. Als er een ChatGPT voor nodig is om ons daar te krijgen, het zij zo.

Welke zorgen worden er geuit?

Neem de use case van studenten die worden gevraagd om essays te schrijven voor hun lessen. Meestal wordt van een student verwacht dat hij een essay schrijft dat volledig op zijn eigen schrijf- en compositiecapaciteiten is gebaseerd. Natuurlijk kunnen ze naar ander geschreven materiaal kijken om ideeën en citaten uit te halen, maar verder wordt aangenomen dat de student zijn essay uit zijn eigen hersens verzint. Het kopiëren van proza ​​uit andere bronnen wordt afgekeurd, wat meestal leidt tot een F-cijfer of mogelijk uitzetting wegens plagiaat van ander materiaal.

Dit is wat er tegenwoordig kan gebeuren. Een student meldt zich aan voor ChatGPT (of een andere verwante generatieve AI-app). Ze voeren de prompt in die de leraar hen heeft gegeven om een ​​essay af te leiden. De ChatGPT produceert een volledig essay op basis van de prompt. Het is een "originele" compositie in die zin dat je het niet noodzakelijkerwijs ergens anders kunt vinden. U kunt niet bewijzen dat er plagiaat is gepleegd op de compositie, aangezien er bij wijze van overweging geen plagiaat is gepleegd.

De student levert het essay in. Ze beweren dat het hun eigen geschreven werk is. De leraar heeft geen middelen om anders te denken. Dat gezegd hebbende, kun je het idee oproepen dat als het geschreven werk schijnbaar de bestaande capaciteit van de student te boven gaat, je achterdochtig zou kunnen worden. Maar daar heb je niet veel aan als je een student van bedrog gaat beschuldigen.

Hoe gaan leerkrachten hiermee om?

Sommigen nemen de regel op in hun lesmateriaal dat elk gebruik van een ChatGPT of gelijkwaardig wordt beschouwd als een vorm van bedrog. Bovendien is het niet toegeven aan het gebruik van ChatGPT of gelijkwaardig een vorm van valsspelen. Zal dat deze nieuwe kans beperken? Er wordt gezegd dat het twijfelachtig is, omdat de kans om gepakt te worden klein is, terwijl de kans op een goed cijfer voor een goed geschreven werkstuk groot is. Je kunt je waarschijnlijk voorstellen dat studenten een deadline hebben om een ​​essay te schrijven dat de avond ervoor in de verleiding zal komen om een ​​generatieve AI te gebruiken om ze schijnbaar uit de problemen te halen.

Schakelen, elk type schrijven kan mogelijk zijn verstoord door generatieve AI.

Wordt je gevraagd om op je werk een memo te schrijven over dit of iets anders? Verspil geen tijd door dit vanaf nul te doen. Gebruik een generatieve AI. U kunt de gegenereerde tekst vervolgens knippen en in uw compositie plakken, de tekst naar behoefte verfijnen en met gemak klaar zijn met het zware schrijfwerk.

Lijkt dit goed om te doen?

Ik durf te wedden dat de meeste mensen heck ja zouden zeggen. Dit is zelfs beter dan iets van internet kopiëren, waardoor u in de problemen zou kunnen komen voor plagiaat. Het is enorm logisch om een ​​generatieve AI te gebruiken om je schrijfinspanningen gedeeltelijk of misschien zelfs helemaal voor je te doen. Daar is gereedschap voor gemaakt.

Even terzijde, in een van mijn volgende columns zal de use case van het gebruik van generatieve AI voor juridische doeleinden, in de zin van het doen van juridisch werk en het produceren van juridische documenten, nauwkeurig worden onderzocht. Iedereen die een advocaat of juridische professional is, zal willen overwegen hoe generatieve AI juridische praktijken mogelijk zal ontwortelen of verstoren. Denk bijvoorbeeld aan een advocaat die een proces-verbaal opstelt voor een rechtszaak. Ze zouden mogelijk een generatieve AI kunnen gebruiken om de compositie geschreven te krijgen. Natuurlijk kan het enkele gebreken hebben, dus de advocaat moet het hier of daar aanpassen. De verminderde hoeveelheid werk en tijd om de briefing te produceren, kan het aanpassen de moeite waard maken.

Sommigen zijn echter bezorgd dat het juridische document onwaarheden of AI-hallucinaties kan bevatten die de advocaat niet heeft opgemerkt. Het standpunt in die draai is dat dit op de schouders van de advocaat is. Ze vertegenwoordigden vermoedelijk dat de opdracht door hen was geschreven, dus of een junior medewerker het heeft geschreven of een AI-app, ze hebben nog steeds de eindverantwoordelijkheid voor de uiteindelijke inhoud.

Waar dit een grotere uitdaging wordt, is als niet-juristen generatieve AI gaan gebruiken om legaal werk voor hen te doen. Ze zouden kunnen geloven dat generatieve AI allerlei juridische documenten kan produceren. Het probleem is natuurlijk dat de documenten misschien niet rechtsgeldig zijn. In mijn komende column vertel ik hier meer over.

Er ontstaat een cruciale vuistregel over de samenleving en het menselijk schrijven.

Het is nogal gedenkwaardig:

  • Wanneer je de taak krijgt om iets te schrijven, moet je het item dan helemaal opnieuw schrijven of moet je een generatieve AI-tool gebruiken om je op weg te helpen?

De uitvoer is misschien halfbakken en u zult veel moeten herschrijven. Of de uitvoer is misschien goed en u hoeft slechts kleine aanpassingen te doen. Al met al, als het gebruik gratis en gemakkelijk is, zal de verleiding om een ​​generatieve AI te gebruiken enorm zijn.

Een bonus is dat u mogelijk generatieve AI kunt gebruiken om sommige van uw herschrijvingen uit te voeren. Vergelijkbaar met de aanwijzingen over de kikker met de hoed en de schoorsteen, kun je bij het maken van kunst hetzelfde doen bij het genereren van op tekst gebaseerde verhalen. De AI zou je verhaal over een hond kunnen produceren, en in plaats daarvan heb je besloten dat je wilt dat de hoofdpersoon een kat is. Nadat je het hondenverhaal hebt gekregen, voer je nog een prompt in en instrueer je de AI-app om over te schakelen naar het gebruik van een kat in het verhaal. Dit zal waarschijnlijk meer doen dan simpelweg eindigen met het woord "kat" dat het woord "hond" in het verhaal vervangt. De AI-app zou het verhaal gemakkelijk kunnen veranderen om te verwijzen naar wat katten doen versus wat honden doen. Het hele verhaal zou kunnen worden herzien alsof je een mens had gevraagd om dergelijke herzieningen te maken.

Krachtig, indrukwekkend, handig-dandy.

Een paar kanttekeningen om over na te denken:

  • Zullen we collectief ons vermogen om te schrijven verliezen en volledig afhankelijk worden van generatieve AI om ons schrijven voor ons te doen?
  • Zullen mensen die schrijven voor de kost zonder werk komen te zitten (hetzelfde wordt gevraagd over kunstenaars)?
  • Zal het internet met enorme sprongen groeien als gegenereerde verhalen online worden overspoeld en we de waarheid niet langer van de onwaarheden kunnen scheiden?
  • Zullen mensen deze gegenereerde verhalen vast geloven en doen alsof een gezaghebbende figuur hen waarheidsgetrouw materiaal heeft gegeven waarop ze kunnen vertrouwen, inclusief mogelijk op leven of dood betrekking hebbende inhoud?
  • Overige

Denk daar eens over na.

Merk op dat een van die punten met opsommingstekens betrekking heeft op het vertrouwen op materiaal dat is gegenereerd door een generatieve AI op basis van leven of dood.

Hier is een hartenbreker voor jou (triggerwaarschuwing, misschien wil je deze paragraaf overslaan). Stel je voor dat een tiener een generatieve AI vraagt ​​of ze zichzelf wel of niet moeten opheffen. Wat zal een generatieve AI-app genereren? Je zou natuurlijk hopen dat de AI-app een verhalend bericht zou produceren om dit niet te doen en de vragensteller luidruchtig zou aansporen om specialisten in de geestelijke gezondheidszorg te zoeken.

De mogelijkheid bestaat dat de AI die facetten niet vermeldt. Erger nog, de AI-app heeft mogelijk eerder tekst op internet vastgelegd die misschien aanmoedigt om dergelijke acties te ondernemen, en de AI-app (aangezien het geen menselijk begripsvermogen heeft), spuugt een verhaal uit dat in feite insinueert of regelrecht stelt dat de tiener moet doorgaan onverschrokken. De tiener gelooft dat dit waarheidsgetrouwe begeleiding is van een online gezaghebbend "Artificial Intelligent"-systeem.

Slecht spul.

Echt heel slechte dingen.

Sommige ontwikkelaars van generatieve AI proberen checks and balances in de AI te plaatsen om te voorkomen dat dit soort situaties zich voordoen. Het punt is dat de manier waarop de prompt is geformuleerd, mogelijk door de geprogrammeerde vangrails kan glippen. Evenzo kan hetzelfde worden gezegd voor de geproduceerde output. Er is geen enkele vorm van gegarandeerde ijzersterke filtering die tot nu toe kan garanderen dat dit nooit zal gebeuren.

Er is nog een andere invalshoek aan deze op tekst gebaseerde productie die je misschien niet had verwacht.

Hier is.

Wanneer programmeurs of softwareontwikkelaars de code voor hun software maken, schrijven ze in feite in tekst. De tekst is enigszins mysterieus omdat deze is gebaseerd op de taal die is gedefinieerd voor een bepaalde programmeertaal, zoals Python, C++, Java, enz. Uiteindelijk is het tekst.

De broncode wordt vervolgens gecompileerd of uitgevoerd op een computer. De ontwikkelaar onderzoekt hun code om te zien of deze doet wat hij moet doen. Ze kunnen correcties aanbrengen of de code debuggen. Zoals u weet, is er veel vraag naar programmeurs of software-ingenieurs en vragen ze vaak hoge prijzen voor hun werk.

Voor generatieve AI is de tekst van de broncode tekst. Het vermogen om patronen te vinden in de ontelbare regels code die op internet staan ​​en beschikbaar zijn in verschillende repositories, zorgt voor een sappige manier om wiskundig en computationeel uit te zoeken welke code wat lijkt te doen.

Het probleem is dit.

Met een prompt kunt u generatieve AI mogelijk een volledig computerprogramma voor u laten produceren. Het is niet nodig om te zwoegen bij het uitslingeren van code. Je hebt misschien gehoord dat er zogenaamde lage code tools die tegenwoordig beschikbaar zijn om de inspanning van programmeurs bij het schrijven van code te verminderen. Generatieve AI kan mogelijk worden opgevat als een lage code of geen code optie omdat het de code voor u schrijft.

Voordat degenen onder u die code schrijven voor de kost op de grond vallen en flauwvallen, moet u er rekening mee houden dat de code niet wordt "begrepen" op de manier waarop u als mens deze waarschijnlijk begrijpt. Bovendien kan de code onwaarheden en AI-hallucinaties bevatten. Vertrouwen op dergelijke code zonder uitgebreide codebeoordelingen uit te voeren, lijkt riskant en twijfelachtig.

We zijn enigszins terug bij dezelfde overwegingen over het schrijven van verhalen en memo's. Misschien is de aanpak om generatieve AI te gebruiken om u op weg te helpen met coderen. Er is echter een aanzienlijke afweging. Is het veiliger om de code rechtstreeks te schrijven of om te gaan met door AI gegenereerde code die mogelijk verraderlijke en moeilijk te detecteren ingebedde problemen bevat?

De tijd zal het leren.

Een korte duik in ChatGPT

Wanneer u ChatGPT begint te gebruiken, wordt er een reeks waarschuwingen en informatieve opmerkingen weergegeven.

Laten we ze even bekijken:

  • "Kan af en toe onjuiste informatie genereren."
  • "Kan af en toe schadelijke instructies of bevooroordeelde inhoud produceren."
  • "Getraind om ongepaste verzoeken af ​​te wijzen."
  • "Ons doel is om externe feedback te krijgen om onze systemen te verbeteren en veiliger te maken."
  • “Hoewel we voorzorgsmaatregelen hebben getroffen, kan het systeem af en toe onjuiste of misleidende informatie genereren en aanstootgevende of bevooroordeelde inhoud produceren. Het is niet bedoeld om advies te geven.”
  • "Gesprekken kunnen worden beoordeeld door onze AI-trainers om onze systemen te verbeteren."
  • "Deel alstublieft geen gevoelige informatie in uw gesprekken."
  • “Dit systeem is geoptimaliseerd voor dialoog. Laat ons weten of een bepaalde reactie goed of niet nuttig was.”
  • “Beperkte kennis van wereld en gebeurtenissen na 2021.”

Vanwege ruimtebeperkingen kan ik die hier niet in detail behandelen, maar laten we in ieder geval een snelle analyse maken.

Ik heb al vermeld dat de gegenereerde tekstverhalen onwaarheden en desinformatie kunnen bevatten.

Er is nog iets waarvoor je op je hoede moet zijn. Wees op uw hoede voor verhalen die verschillende opruiende opmerkingen kunnen bevatten die ongewenste vooroordelen vertonen.

Om te proberen dit te voorkomen, is gemeld dat OpenAI menselijke dubbelcheckers gebruikte tijdens de training van ChatGPT. De dubbelcheckers zouden prompts invoeren die de AI waarschijnlijk zouden aansporen om opruiende inhoud te produceren. Toen dergelijke inhoud werd gezien door de dubbelcheckers, gaven ze de AI aan dat dit ongepast was en scoorden ze in zekere zin een numerieke straf voor de geproduceerde output. Wiskundig gezien zou het AI-algoritme proberen de strafscores tot een minimum te beperken en ergo computationeel naar streven om die zinnen of bewoordingen voortaan niet meer te gebruiken.

Evenzo, wanneer u een prompt invoert, probeert de AI te bepalen of uw prompt opruiend is of kan leiden tot opruiende output, waarvoor de prompt door de AI kan worden geweigerd. Beleefd is het idee om ongepaste prompts of verzoeken af ​​te wijzen. Bijvoorbeeld, vragen om een ​​grap die racistische beledigingen met zich meebrengt, wordt waarschijnlijk geweigerd door de AI.

Ik weet zeker dat het je niet zal verbazen dat mensen die ChatGPT gebruiken, hebben geprobeerd de voorzorgsmaatregelen te slim af te zijn. Deze "ondernemende" gebruikers hebben de AI bedrogen of slimme manieren gevonden om de wiskundige formuleringen te omzeilen. Sommige van deze inspanningen worden gedaan voor de schijnbare vreugde van het verslaan of overschrijden van het systeem, terwijl anderen beweren dat ze proberen te laten zien dat ChatGPT nog steeds ongewenste resultaten zal opleveren.

Over één ding hebben ze gelijk; de voorzorgsmaatregelen zijn niet onfeilbaar. We zijn terug bij een andere overweging over AI-ethiek en mogelijke AI-wetgeving. Moet de generatieve AI door kunnen gaan, zelfs als deze ongewenste output zou kunnen produceren?

De waarschuwingen wanneer u ChatGPT gebruikt, lijken iedereen te waarschuwen voor wat de AI-app zou kunnen doen of zeggen. De kans is groot dat er onvermijdelijk een soort rechtszaken worden aangespannen wanneer iemand, misschien minderjarig, ongepaste output van aanstootgevende aard krijgt (of, wanneer ze gezaghebbende tekstverhalen krijgen waarvan ze helaas denken dat ze waar zijn en handelen naar de output naar hun eigen gevaar).

Een paar andere snelle nuances over de prompts zijn het waard om te weten.

Elke keer dat u een prompt invoert, kan de uitvoer drastisch verschillen, zelfs als u exact dezelfde prompt invoert. Als u bijvoorbeeld 'Vertel me een verhaal over een hond' invoert, krijgt u een op tekst gebaseerd verhaal, dat misschien een verhaal over een herdershond aangeeft, terwijl de volgende keer dat u 'Vertel me een verhaal over een hond' invoert, het een volledig ander verhaal en betrek een poedel. Dit is hoe de meeste generatieve AI wiskundig en computationeel is gerangschikt. Er wordt gezegd dat het niet-deterministisch is. Sommige mensen vinden dit verontrustend, omdat ze gewend zijn aan het concept dat uw invoer naar een computer altijd dezelfde precieze uitvoer zal produceren.

Het herschikken van woorden heeft ook een grote invloed op de gegenereerde output. Als u "Vertel me een verhaal over een hond" invoert en later "Vertel me een hondenverhaal" invoert, is de kans groot dat de geproduceerde verhalen wezenlijk verschillen. De gevoeligheid kan scherp zijn. Vragen om een ​​verhaal over een hond versus vragen om een ​​verhaal over een grote hond zou ongetwijfeld radicaal verschillende verhalen opleveren.

Merk ten slotte op dat de items met opsommingstekens hierboven een indicatie bevatten dat de ChatGPT "beperkte kennis van de wereld en gebeurtenissen na het jaar 2021" heeft. Dit komt omdat de AI-ontwikkelaars besloten een grens te stellen aan het tijdstip waarop ze de AI-app internetgegevens zouden laten verzamelen en trainen. Ik heb gemerkt dat gebruikers zich vaak niet lijken te realiseren dat ChatGPT niet rechtstreeks is verbonden met het internet van vandaag om gegevens op te halen en gegenereerde uitvoer te produceren. We zijn er zo aan gewend dat alles in realtime werkt en verbonden is met internet, dat we dit ook verwachten van AI-apps. Niet in dit specifieke geval (en, ter verduidelijking, ChatGPT is inderdaad beschikbaar op internet, maar wanneer het de op tekst gebaseerde uitvoer samenstelt, ruimt het niet per se het internet op om dit te doen, maar is het over het algemeen bevroren in de tijd om rond de afsluitdatum).

U zult zich misschien afvragen waarom ChatGPT geen realtime gegevens van internet voedt. Een paar zinnige redenen. Ten eerste zou het rekenkundig duur zijn om te proberen de training in realtime te doen, en bovendien zou de AI-app vertraagd zijn of minder snel reageren op prompts (momenteel is het erg snel, meestal reageert het binnen een paar seconden met een op tekst gebaseerd verhaal) ). Ten tweede, de vieze dingen op internet die ze hebben geprobeerd de AI-app te vermijden, zouden waarschijnlijk in de wiskundige en computationele formuleringen sluipen (en, zoals opgemerkt, het zit er al een beetje in van vroeger, hoewel ze het probeerden te detecteren door met behulp van die menselijke dubbelcheckers).

Je zult vast en zeker mensen horen die brutaal aankondigen dat ChatGPT en soortgelijke generatieve AI de doodsteek is voor Google Zoeken en andere zoekmachines. Waarom zou u een Google-zoekopdracht uitvoeren die veel referentie-items oplevert als u de AI iets voor u kunt laten schrijven? Aha, zeggen deze mensen, Google zou zijn deuren moeten sluiten en naar huis moeten gaan.

Dit is natuurlijk pure onzin.

Mensen willen nog steeds zoekopdrachten uitvoeren. Ze willen referentiemateriaal kunnen bekijken en dingen zelf kunnen uitzoeken. Het is geen binaire keuze voor deze of die kant die elkaar uitsluit (dit is een valse dichotomie).

Generatieve AI is een ander soort tool. Je gooit geen hamers weg omdat je een schroevendraaier hebt uitgevonden.

Een verstandiger manier om hierover na te denken, is dat de twee soorten tools compatibel kunnen zijn voor gebruik door mensen die dingen willen doen die met internet te maken hebben. Sommigen hebben al gespeeld met het koppelen van generatieve AI aan conventionele internetzoekmachines.

Een zorg voor iedereen die al een zoekmachine aanbiedt, is dat de "gratis" generatieve AI-tool mogelijk de reputatie van de zoekmachine kan ondermijnen. Als u op internet zoekt en opruiend materiaal krijgt, weet u dat dit gewoon de manier van internet is. Als je generatieve AI gebruikt en het produceert een op tekst gebaseerd verhaal dat weerzinwekkend en gemeen is, ben je hierdoor waarschijnlijk gestoord. Het kan zijn dat als een generatieve AI nauw verbonden is met een bepaalde zoekmachine, je ongenoegen en walging over de generatieve AI overslaat op wat je ook voelt over de zoekmachine.

Hoe dan ook, we zullen vrijwel zeker allianties zien tussen verschillende generatieve AI-tools en internetzoekmachines, die voorzichtig en bedachtzaam in deze troebele wateren stappen.

Conclusie

Hier is een vraag voor jou.

Hoe kan iemand geld verdienen door generatieve AI te bieden die op tekst gebaseerde verhalen produceert?

OpenAI heeft al aangegeven dat de interne kosten per transactie van ChatGPT blijkbaar wat hoog zijn. Ze genereren nog geen inkomsten met ChatGPT.

Zouden mensen bereid zijn transactiekosten of misschien abonnementskosten te betalen om toegang te krijgen tot generatieve AI-tools?

Kunnen advertenties een manier zijn om te proberen geld te verdienen via generatieve AI-tools?

Niemand is er nog helemaal zeker van hoe dit geld gaat verdienen. We bevinden ons nog steeds in de grote experimentele fase van dit soort AI. Plaats de AI-app daar en kijk welke reactie je krijgt. Pas de AI aan. Gebruik inzichten uit het gebruik om te bepalen waar de AI vervolgens op moet worden gericht.

Inschuimen, uitspoelen, herhalen.

Als afsluitende opmerking: sommigen geloven voorlopig dat dit een type AI is dat we helemaal niet zouden moeten hebben. Zet de klok terug. Stop deze geest terug in de fles. We proefden ervan en realiseerden ons dat het opmerkelijke nadelen heeft, en collectief als samenleving zou het erover eens kunnen zijn dat we dat paard helemaal terug de stal in moeten lopen.

Gelooft u dat de belofte van generatieve AI beter of slechter is dan de nadelen?

Vanuit het oogpunt van de echte wereld doet het er niet echt toe, omdat de realiteit van het uitbannen van generatieve AI over het algemeen onpraktisch is. Generatieve AI wordt verder ontwikkeld en je gaat het niet koud tegenhouden, noch hier, noch in een of alle andere landen (dat is het wel). Hoe zou je dat doen? Wetten aannemen om generatieve AI volledig te verbieden. Niet bijzonder levensvatbaar (u heeft vermoedelijk een betere kans om wetten vast te stellen die generatieve AI vormgeven en degenen die het bedenken legaal te besturen). Misschien in plaats daarvan de cultuur krijgen om generatieve AI te mijden? Je kunt sommige mensen zover krijgen dat ze het eens zijn met de schande, maar anderen zijn het daar niet mee eens en gaan toch door met generatieve AI.

Het is een raadsel op het gebied van AI-ethiek en AI-wetgeving, zoals ik eerder opmerkte.

Uw laatste grote vraag is of generatieve AI ons op weg helpt naar bewuste AI. Sommigen beweren dat het zo is. Het argument is dat als we de wiskundige modellen blijven opmeten en de computationele computerservers blijven opslokken en elk stukje internet en meer in dit beest stoppen, de algoritmische AI ​​de hoek om zal zetten in gevoel.

En als dat het geval is, maken we ons zorgen dat AI een existentieel risico vormt. Je hebt keer op keer gehoord dat als we eenmaal bewuste AI hebben, het kan zijn dat de AI besluit dat mensen niet erg nuttig zijn. Voor je het weet, heeft AI ons tot slaaf gemaakt of uitgeroeid, zie mijn verkenning van deze existentiële risico's op de link hier.

Een tegengestelde opvatting is dat we geen gevoel zullen krijgen uit wat sommigen spottend hebben gekarakteriseerd als een stochastische papegaai (dat is de slogan die aan populariteit heeft gewonnen in het AI-rijk), hier is een citaat waarin de zin wordt gebruikt:

  • “In tegenstelling tot hoe het lijkt als we de uitvoer observeren, is een LM een systeem voor het lukraak samenvoegen van reeksen taalvormen die het heeft waargenomen in zijn enorme trainingsgegevens, volgens probabilistische informatie over hoe ze combineren, maar zonder enige verwijzing naar betekenis : een stochastische papegaai” (in een onderzoeksartikel van Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, ACM FAccT '21, 3–10 maart 2021, Virtual Event, Canada, getiteld "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?").

Is generatieve AI een soort doodlopende weg die nuttige AI-mogelijkheden biedt, maar ons niet naar bewuste AI brengt, of kan de schaalfactor op de een of andere manier de opkomst mogelijk maken van een singulariteit die leidt tot bewuste AI?

Er ontstaat een verhitte discussie.

Zeg, wil je generatieve AI proberen?

Zo ja, dan is hier een link naar ChatGPT waar u een account kunt aanmaken en kunt proberen het te gebruiken, zie de link hier.

Houd er rekening mee dat vanwege de grote vraag naar het gebruik van de experimentele AI-app, het aanmelden voor toegang blijkbaar op elk moment kan worden gestopt, hetzij voor een korte tijd, hetzij beperkt (toen ik het voor het laatst controleerde, was aanmelden nog steeds ingeschakeld). Ik geef je gewoon een seintje.

Houd rekening met alles wat ik hierin heb gezegd over generatieve AI, zodat u op de hoogte bent van wat er gebeurt wanneer u een AI-app zoals ChatGPT gebruikt.

Denk na over je acties.

Ga je ons onbedoeld naar bewuste AI hebben geleid die ons uiteindelijk uit het bestaan ​​verplettert, simpelweg door ervoor te kiezen om met generatieve AI te spelen? Zal je schuldig zijn? Had je jezelf ervan moeten weerhouden bij te dragen aan de verschrikkelijke vernietiging van de mensheid.

Ik denk het niet. Maar het kan zijn dat de AI-overheersers me (al) dwingen om dat te zeggen, of misschien is deze hele column deze keer geschreven door ChatGPT of een gelijkwaardige generatieve AI-app.

Maak je geen zorgen, ik verzeker je dat ik het was, menselijke intelligentie, en niet kunstmatige intelligentie.

Bron: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-inclusief-looming-ai-ethics- en-ai-wet-overwegingen/