Generatieve AI ChatGPT kan op verontrustende wijze uw privé- en vertrouwelijke gegevens opslokken, waarschuwt AI-ethiek en AI-wetgeving

Nu zie je je gegevens, nu niet.

Ondertussen zijn uw kostbare data als het ware onderdeel geworden van het collectief.

Ik verwijs naar een aspect dat nogal verrassend kan zijn voor degenen onder u die gretig en serieus gebruik maken van het nieuwste op het gebied van kunstmatige intelligentie (AI). De gegevens die u in een AI-app invoert, zijn mogelijk helemaal niet privé voor u en voor u alleen. Het kan zijn dat uw gegevens door de AI-maker zullen worden gebruikt om vermoedelijk te proberen hun AI-services te verbeteren of door hen en/of zelfs hun gelieerde partners voor verschillende doeleinden kunnen worden gebruikt.

Je bent nu gewaarschuwd.

Deze overdracht van uw gegevens gebeurt op de meest onschadelijke manieren en mogelijk door duizenden of in de orde van grootte van miljoenen mensen. Hoezo dat? Er is een type AI bekend als generatieve AI dat onlangs grote krantenkoppen heeft gehaald en de aandacht van het grote publiek heeft getrokken. De meest opvallende van de bestaande generatieve AI-apps is er een genaamd ChatGPT, die is bedacht door de firma OpenAI.

Er zijn naar verluidt ongeveer een miljoen geregistreerde gebruikers voor ChatGPT. Veel van die gebruikers lijken het leuk te vinden om deze populairste en nieuwste generatieve AI-app uit te proberen. Het proces is buitengewoon eenvoudig. U voert wat tekst in als prompt, en voila, de ChatGPT-app genereert een tekstuitvoer die meestal de vorm heeft van een essay. Sommigen noemen dit tekst-naar-tekst, hoewel ik er de voorkeur aan geef het aan te duiden als tekst-naar-essay, aangezien deze woordenstroom meer alledaags is.

In eerste instantie zal een newbie-gebruiker waarschijnlijk iets leuks en zorgeloos invoeren. Vertel me over het leven en de tijden van George Washington, iemand zou als prompt kunnen binnenkomen. ChatGPT zou dan een essay maken over onze legendarische eerste president. Het essay zou volledig vloeiend zijn en het zou moeilijk zijn om te onderscheiden dat het is geproduceerd door een AI-app. Een opwindend iets om te zien gebeuren.

De kans is groot dat een deel van de beginnende gebruikers na een tijdje spelen genoeg heeft gehad en er mogelijk voor kiest om te stoppen met spelen met ChatGPT. Ze hebben nu hun FOMO (angst om iets te missen) overwonnen, na te hebben geëxperimenteerd met de AI-app waar zo ongeveer iedereen over lijkt te babbelen. Daad gedaan.

Sommigen zullen echter gaan nadenken over andere en serieuzere manieren om generatieve AI te gebruiken.

Gebruik misschien ChatGPT om die memo te schrijven die je baas je heeft opgedragen om te schrijven. Het enige wat je hoeft te doen is een prompt te geven met de opsommingstekens die je in gedachten hebt, en voor je het weet is er een hele memo gegenereerd door ChatGPT waar je baas trots op zou zijn. U kopieert het uitgevoerde essay van ChatGPT, plakt het in de officiële sjabloon van het bedrijf in uw tekstverwerkingspakket en e-mailt het stijlvolle memorandum naar uw manager. Je bent een miljoen dollar waard. En je hebt je hersens gebruikt om een ​​handig hulpmiddel te vinden om het harde werk voor je te doen. Geef jezelf een schouderklopje.

Dat is niet alles.

Ja, er is meer.

Houd er rekening mee dat generatieve AI een hele reeks andere schrijfgerelateerde taken kan uitvoeren.

Stel dat u een soort verhaal hebt geschreven voor een gewaardeerde klant en u wilt heel graag dat het materiaal wordt beoordeeld voordat het de deur uitgaat.

Makkelijk.

U plakt de tekst van uw verhaal in een ChatGPT-prompt en geeft vervolgens ChatGPT de opdracht om de door u samengestelde tekst te analyseren. Het resulterende uitgevoerde essay kan diep in uw bewoordingen graven, en tot uw aangename verrassing zal het schijnbaar de betekenis van wat u hebt gezegd proberen te inspecteren (veel verder gaand dan het optreden als spellingcontrole of grammatica-analysator). De AI-app kan fouten in de logica van uw verhaal detecteren of tegenstrijdigheden ontdekken waarvan u niet wist dat ze in uw eigen schrijven stonden. Het is bijna alsof je een sluwe menselijke redacteur hebt ingehuurd om je ontwerp te bekijken en een litanie van nuttige suggesties en bekende zorgen te geven (nou, ik wil categorisch stellen dat ik niet probeer de AI-app te antropomorfiseren, met name dat een menselijke redacteur is een mens terwijl de AI-app slechts een computerprogramma is).

Godzijdank dat je de generatieve AI-app hebt gebruikt om je kostbare geschreven verhaal onder de loep te nemen. U zou ongetwijfeld liever hebben dat de AI die verontrustende schriftelijke problemen vindt in plaats van het document naar uw gewaardeerde klant te sturen. Stel je voor dat je het verhaal had samengesteld voor iemand die je had ingehuurd om een ​​vrij vitale afbeelding te bedenken. Als u de originele versie aan de klant had gegeven voordat u de AI-app-beoordeling deed, zou u zich in verlegenheid kunnen brengen. De klant zou vrijwel zeker ernstige twijfels koesteren over uw vaardigheden om het gevraagde werk te doen.

Laten we de lat hoger leggen.

Denk aan het maken van juridische documenten. Dat is natuurlijk een bijzonder ernstige zaak. Woorden en hoe ze zijn samengesteld, kunnen een pittige juridische verdediging of een akelige juridische ramp betekenen.

In mijn lopende onderzoek en advisering heb ik regelmatig contact met veel advocaten die zeer geïnteresseerd zijn in het gebruik van AI op het gebied van recht. Verschillende LegalTech-programma's worden aangesloten op AI-mogelijkheden. Een advocaat kan generatieve AI gebruiken om een ​​concept van een contract op te stellen of andere juridische documenten op te stellen. Bovendien, als de advocaat zelf een eerste concept heeft gemaakt, kan hij de tekst doorgeven aan een generatieve AI-app zoals ChatGPT om te kijken welke gaten of hiaten kunnen worden gedetecteerd. Zie mijn discussie op voor meer informatie over hoe advocaten en het juridische veld ervoor kiezen om AI te gebruiken de link hier.

We zijn echter klaar voor de wrijving hierover.

Een advocaat neemt een opgesteld contract en kopieert de tekst naar een prompt voor ChatGPT. De AI-app maakt een review voor de advocaat. Blijkt dat er verschillende valkuilen zijn gevonden door ChatGPT. De advocaat herziet het contract. Ze kunnen ChatGPT ook vragen om een ​​herformulering of herformulering van de samengestelde tekst voor te stellen. Vervolgens wordt er een nieuwe en betere versie van het contract gemaakt door de generatieve AI-app. De advocaat pakt de uitgevoerde tekst op en stopt deze in een tekstverwerkingsbestand. Het bericht gaat naar hun cliënt. Missie volbracht.

Kun jij raden wat er net ook is gebeurd?

Achter de schermen en onder de motorkap zou het contract als een vis in de bek van een walvis zijn opgeslokt. Hoewel deze AI-gebruikende advocaat het misschien niet beseft, kan de tekst van het contract, zoals geplaatst als prompt in ChatGPT, mogelijk worden opgeslokt door de AI-app. Het is nu voer voor patroonvergelijking en andere computationele complexiteiten van de AI-app. Dit kan op zijn beurt op verschillende manieren worden gebruikt. Als er vertrouwelijke gegevens in het concept staan, valt dat nu mogelijk ook binnen de grenzen van ChatGPT. Uw prompt zoals verstrekt aan de AI-app maakt nu ogenschijnlijk op de een of andere manier deel uit van het collectief.

Bovendien wordt het uitgevoerde essay ook als onderdeel van het collectief beschouwd. Als u ChatGPT had gevraagd om het concept voor u aan te passen en de nieuwe versie van het contract te presenteren, wordt dit opgevat als een uitgevoerd essay. De uitvoer van ChatGPT is ook een type inhoud dat door de AI-app kan worden bewaard of anderszins kan worden getransformeerd.

Jakkes, je hebt misschien onschuldig privé- of vertrouwelijke informatie weggegeven. Niet goed. Bovendien zou je niet eens weten dat je dat had gedaan. Er werden geen vlaggen gehesen. Een hoorn ontplofte niet. Er gingen geen knipperende lichten af ​​om je met een schok in de realiteit te brengen.

We zouden kunnen verwachten dat niet-juristen zo'n fout gemakkelijk kunnen maken, maar dat een ervaren advocaat dezelfde beginnersfout maakt, is bijna ondenkbaar. Desalniettemin zijn er op dit moment waarschijnlijk juridische professionals die dezelfde potentiële blunder maken. Ze lopen het risico een opmerkelijk onderdeel van het advocaat-cliënt-privilege te schenden en mogelijk de American Bar Association (ABA) Model Rules of Professional Conduct (MRPC) te schenden. In het bijzonder: "Een advocaat mag geen informatie vrijgeven met betrekking tot de vertegenwoordiging van een cliënt, tenzij de cliënt geïnformeerde toestemming geeft, de openbaarmaking impliciet is toegestaan ​​om de vertegenwoordiging uit te voeren of de openbaarmaking is toegestaan ​​door paragraaf (b)" (geciteerd uit de MRPC, en waarvoor de uitzonderingen behorende bij onderdeel b niet lijken te gelden voor het op een niet-beveiligde manier gebruiken van een generatieve AI-app).

Sommige advocaten proberen hun overtreding te verontschuldigen door te beweren dat ze geen technische tovenaars zijn en dat ze geen middelen zouden hebben gehad om te weten dat het invoeren van vertrouwelijke informatie in een generatieve AI-app op de een of andere manier een soort inbreuk zou kunnen zijn. De ABA heeft duidelijk gemaakt dat het een plicht voor advocaten is om op de hoogte te zijn van AI en technologie vanuit juridisch perspectief: “Om de vereiste kennis en vaardigheden te behouden, moet een advocaat op de hoogte blijven van veranderingen in de wet en haar praktijk, de voordelen en risico's verbonden aan relevante technologie, deel te nemen aan permanente studie en opleiding en voldoe aan alle permanente wettelijke opleidingsvereisten waaraan de advocaat is onderworpen” (volgens MRPC).

Verschillende bepalingen komen in deze schijn van wettelijke plicht, waaronder het bewaren van vertrouwelijke informatie van de klant (Regel 1.6), het beschermen van eigendommen van de klant, zoals gegevens (Regel 1.15), correct communiceren met een klant (Regel 1.4), het verkrijgen van geïnformeerde toestemming van de klant (Regel 1.6), en zorgen voor competente vertegenwoordiging namens een cliënt (Regel 1.1). En er is ook de weinig bekende maar zeer opmerkelijke op AI gerichte resolutie van de ABA: “Dat de American Bar Association er bij rechtbanken en advocaten op aandringt om de opkomende ethische en juridische kwesties in verband met het gebruik van kunstmatige intelligentie ('AI') aan te pakken. in de rechtspraktijk, waaronder: (1) vooringenomenheid, verklaarbaarheid en transparantie van geautomatiseerde beslissingen genomen door AI; (2) ethisch en voordelig gebruik van AI; en (3) controles en toezicht op AI en de leveranciers die AI leveren.”

Wijze woorden voor mijn juridische vrienden en collega's.

De kern van de zaak is dat vrijwel iedereen in de problemen kan komen bij het gebruik van generatieve AI. Niet-juristen kunnen dit doen door hun veronderstelde gebrek aan juridisch inzicht. Advocaten kunnen dat ook doen, misschien verliefd op de AI of niet diep ademhalend en nadenkend over de juridische gevolgen die kunnen ontstaan ​​bij het gebruik van generatieve AI.

We zitten potentieel allemaal in hetzelfde schuitje.

Je moet je ook realiseren dat ChatGPT niet de enige generatieve AI-app is. Er zijn andere generatieve AI-apps die u kunt gebruiken. Ook zij zijn waarschijnlijk uit hetzelfde hout gesneden, namelijk dat de invoer die u invoert als prompts en de uitvoer die u ontvangt als gegenereerde uitvoeressays, worden beschouwd als onderdeel van het collectief en kunnen worden gebruikt door de AI-maker.

In de column van vandaag ga ik ingaan op de aard van de manier waarop gegevens die u invoert en gegevens die u ontvangt van generatieve AI mogelijk in gevaar kunnen komen met betrekking tot privacy en vertrouwelijkheid. De AI-makers stellen hun licentievereisten beschikbaar en het is verstandig om deze essentiële bepalingen te lezen voordat u actief een AI-app gaat gebruiken met enige schijn van echte gegevens. Ik zal u door een voorbeeld van een dergelijke licentie leiden, waarbij ik dit doe voor de ChatGPT AI-app.

Bij dit alles komt een hele reeks overwegingen op het gebied van AI-ethiek en AI-wetgeving kijken.

Houd er rekening mee dat er voortdurende inspanningen worden geleverd om ethische AI-principes te integreren in de ontwikkeling en uitvoering van AI-apps. Een groeiend contingent van bezorgde en voormalige AI-ethici probeert ervoor te zorgen dat bij het bedenken en toepassen van AI rekening wordt gehouden met de visie van doen AI voorgoed en afwenden AI voor slecht. Evenzo worden er nieuwe AI-wetten voorgesteld die worden gebruikt als mogelijke oplossingen om te voorkomen dat AI-inspanningen amok maken op het gebied van mensenrechten en dergelijke. Zie voor mijn doorlopende en uitgebreide berichtgeving over AI-ethiek en AI-wetgeving de link hier en de link hier, om er een paar te noemen.

Er zijn belangrijke ethische AI-nuances en -bepalingen verbonden aan hoe AI-makers kunnen of moeten omgaan met de gegevens of informatie die privé of vertrouwelijk lijkt voor hun gebruikers. U weet waarschijnlijk ook dat een heleboel bestaande wetten de kern raken van hoe gegevens door technologie-entiteiten zouden moeten worden behandeld. De kans is ook groot dat de nieuw voorgestelde AI-wetten ook kriskras door datzelfde gebied zullen gaan. Zie bijvoorbeeld mijn berichtgeving over de AI Bill van rechten en ander juridisch gekibbel over AI, op de link hier.

Hier is de belangrijkste afhaalmaaltijden van deze discussie, alles verteld:

  • Wees heel, heel, heel voorzichtig met welke gegevens of informatie je in je prompts wilt stoppen bij het gebruik van generatieve AI, en wees ook uiterst voorzichtig en anticipeer op wat voor soort output essays je zou kunnen krijgen, aangezien de output ook kan worden geabsorbeerd.

Betekent dit dat je geen generatieve AI moet gebruiken?

Nee, dat is helemaal niet wat ik zeg.

Gebruik generatieve AI naar hartenlust. De kern is dat je je bewust moet zijn van hoe je het gebruikt. Zoek uit wat voor soort licentiebepalingen aan het gebruik zijn gekoppeld. Bepaal of u met die bepalingen kunt leven. Als er mogelijkheden zijn om de AI-maker te laten weten dat u bepaalde soorten extra beveiligingen of vergoedingen wilt inroepen, zorg er dan voor dat u dit doet.

Ik zal ook een ander facet noemen waarvan ik me realiseer dat sommige mensen er gek van zullen worden. Hier gaat. Wat de licentiebepalingen ook zijn, u moet er ook van uitgaan dat er een mogelijkheid is dat deze vereisten niet volledig worden nageleefd. Er kunnen dingen misgaan. Spullen kunnen tussen de kieren glippen. Uiteindelijk heb je misschien een rechtszaak tegen een AI-maker omdat hij zich niet aan zijn bepalingen houdt, maar dat is iets nadat het paard al uit de stal is.

Een potentieel zeer veilige manier om verder te gaan, is door uw eigen instantie op uw eigen systemen op te zetten, hetzij in de cloud of intern (en, ervan uitgaande dat u zich houdt aan de juiste cyberbeveiligingsmaatregelen, wat sommigen weliswaar niet doen en erger zijn). in hun eigen cloud dan via de cloud van de softwareleverancier). Een beetje een knagend probleem is echter dat maar weinig van de grootschalige generatieve AI-apps dit op dit moment toestaan. Ze werken allemaal vrijwel alleen op basis van onze cloud. Weinigen hebben de mogelijkheid geboden om een ​​hele instantie speciaal voor jou uit te laten snijden. Ik heb voorspeld dat we deze optie geleidelijk aan zullen zien verschijnen, hoewel het in het begin nogal duur en enigszins gecompliceerd zal zijn, zie mijn voorspellingen op de link hier.

Hoe komen anders bijzonder slimme en bijzonder scherpzinnige mensen terecht in een moeras van gegevens- of informatievertrouwelijkheidserosie?

De aantrekkingskracht van deze generatieve AI-apps is behoorlijk magnetisch als je er eenmaal een gaat gebruiken. Stap voor stap merk je dat je betoverd raakt en ervoor kiest om je tenen steeds verder in de generatieve AI-wateren te steken. Het volgende dat u weet, is dat u gemakkelijk propriëtaire inhoud overhandigt die verondersteld wordt privé en vertrouwelijk te blijven in een generatieve AI-app.

Weersta de drang en stap alsjeblieft niet stapsgewijs in een onsmakelijke val.

Voor bedrijfsleiders en topmanagers geldt dezelfde waarschuwing voor u en alle mensen in uw hele bedrijf. Senior leidinggevenden raken verstrikt in het enthousiasme en de verbazing van het gebruik van generatieve AI. Ze kunnen het echt verknoeien en mogelijk geheime informatie op het hoogste niveau invoeren in een AI-app.

Bovendien hebben ze misschien brede competities van hun werknemers die ook spelen met generatieve AI. Veel van die anderszins oplettende medewerkers voeren gedachteloos en gelukzalig de privé- en vertrouwelijke informatie van het bedrijf in deze AI-apps in. Volgens recente nieuwsberichten heeft Amazon blijkbaar ontdekt dat sommige werknemers verschillende bedrijfseigen informatie invoerden in ChatGPT. Intern zou een juridisch georiënteerde waarschuwing zijn gestuurd om voorzichtig te zijn met het gebruik van de onweerstaanbare AI-app.

Over het algemeen komt er een beetje ironie in de toenemende verschijnselen van werknemers die willens en wetens vertrouwelijke gegevens invoeren in ChatGPT en andere generatieve AI. Sta me toe om uit te werken. De moderne bedrijven van vandaag hebben doorgaans een strikt cyberbeveiligingsbeleid dat ze nauwgezet hebben opgesteld en geïmplementeerd. Er bestaan ​​tal van technologische beveiligingen. De hoop is om onbedoelde releases van cruciale dingen te voorkomen. Een voortdurende drumbeat is om voorzichtig te zijn wanneer u websites bezoekt, wees voorzichtig wanneer u niet-goedgekeurde apps gebruikt, enzovoort.

Langs komen generatieve AI-apps zoals ChatGPT. Het nieuws over de AI-app gaat door het dak en krijgt brede aandacht. Er ontstaat een razernij. Mensen in deze bedrijven die al deze cyberbeveiligingsbeschermingen hebben, kiezen ervoor om op een generatieve AI-app te springen. In het begin spelen ze er lusteloos mee. Vervolgens gaan ze bedrijfsgegevens invoeren. Wham, ze hebben nu mogelijk informatie onthuld die niet openbaar had mogen worden gemaakt.

Het glimmende nieuwe speeltje dat op magische wijze de miljoenen dollars aan uitgaven voor cyberbeveiliging en voortdurende training omzeilt over wat je niet moet doen. Maar goed, het is opwindend om generatieve AI te gebruiken en deel uit te maken van de 'in'-menigte. Dat is wat telt, blijkbaar.

Ik vertrouw erop dat je begrijpt wat ik bedoel met mijn uitgesproken voorzichtigheid.

Laten we vervolgens van dichtbij bekijken hoe generatieve AI technisch omgaat met de tekst van de prompts en uitgevoerde essays. We zullen ook enkele licentiebepalingen onderzoeken, waarbij we ChatGPT als voorbeeld gebruiken. Realiseer u alstublieft dat ik niet het volledige scala aan licentie-elementen ga behandelen. Zorg ervoor dat u uw juridisch adviseur betrekt voor welke generatieve AI-apps u ook besluit te gebruiken. Ook verschilt de licentie van AI-maker tot AI-maker, en een bepaalde AI-maker kan ervoor kiezen om zijn licentie te wijzigen, dus zorg ervoor dat u waakzaam blijft wat de nieuwste versie van de licentie bepaalt.

We hebben wat spannend uitpakken te doen over dit bedwelmende onderwerp.

Ten eerste moeten we ervoor zorgen dat we allemaal op dezelfde lijn zitten over wat Generative AI inhoudt en ook waar het bij ChatGPT om draait. Zodra we dat fundamentele facet hebben behandeld, kunnen we een overtuigende beoordeling uitvoeren van de spiegelmetafoor die bij dit type AI hoort.

Als je al goed bekend bent met Generative AI en ChatGPT, kun je misschien het volgende gedeelte overslaan en doorgaan met het volgende gedeelte. Ik geloof dat alle anderen de essentiële details over deze zaken leerzaam zullen vinden door het gedeelte aandachtig te lezen en op de hoogte te blijven.

Een snelle inleiding over generatieve AI en ChatGPT

ChatGPT is een interactief conversatie-georiënteerd AI-systeem voor algemeen gebruik, in wezen een ogenschijnlijk onschuldige algemene chatbot, maar het wordt actief en gretig door mensen gebruikt op manieren die velen volledig overrompelen, zoals ik binnenkort zal toelichten. Deze AI-app maakt gebruik van een techniek en technologie in het AI-rijk waarnaar vaak wordt verwezen als generatieve AI. De AI genereert uitvoer zoals tekst, wat ChatGPT doet. Andere op generatieve gebaseerde AI-apps produceren afbeeldingen zoals foto's of illustraties, terwijl andere audiobestanden of video's genereren.

Ik zal me in deze discussie concentreren op de op tekst gebaseerde generatieve AI-apps, want dat is wat ChatGPT doet.

Generatieve AI-apps zijn buitengewoon gebruiksvriendelijk.

Het enige dat u hoeft te doen, is een prompt invoeren en de AI-app genereert voor u een essay dat probeert op uw prompt te reageren. De samengestelde tekst zal lijken alsof het essay door de menselijke hand en geest is geschreven. Als u een prompt zou invoeren met de tekst "Vertel me over Abraham Lincoln", zal de generatieve AI u een essay over Lincoln geven. Dit wordt gewoonlijk geclassificeerd als generatieve AI die presteert tekst-naar-tekst of sommigen noemen het liever tekst-naar-essay uitgang. Zoals gezegd zijn er andere vormen van generatieve AI, zoals tekst-naar-kunst en tekst-naar-video.

Je eerste gedachte zou kunnen zijn dat dit generatieve vermogen niet zo belangrijk lijkt als het gaat om het produceren van essays. U kunt eenvoudig online op internet zoeken en gemakkelijk tonnen en tonnen essays over president Lincoln vinden. De kicker in het geval van generatieve AI is dat het gegenereerde essay relatief uniek is en een originele compositie biedt in plaats van een copycat. Als je zou proberen het door AI geproduceerde essay ergens online te vinden, zou je het waarschijnlijk niet ontdekken.

Generatieve AI is vooraf getraind en maakt gebruik van een complexe wiskundige en computationele formulering die is opgezet door patronen in geschreven woorden en verhalen op internet te onderzoeken. Als resultaat van het onderzoeken van duizenden en miljoenen geschreven passages, kan de AI nieuwe essays en verhalen uitspuwen die een mengelmoes zijn van wat werd gevonden. Door verschillende probabilistische functionaliteit toe te voegen, is de resulterende tekst vrijwel uniek in vergelijking met wat er in de trainingsset is gebruikt.

Daarom is er opschudding ontstaan ​​over het feit dat studenten vals kunnen spelen bij het schrijven van essays buiten de klas. Een leraar kan niet zomaar het essay nemen waarvan bedrieglijke studenten beweren dat het hun eigen schrijven is en proberen erachter te komen of het is gekopieerd van een andere online bron. Over het algemeen zal er geen definitief bestaand essay online zijn dat past bij het door AI gegenereerde essay. Alles bij elkaar zal de leraar met tegenzin moeten accepteren dat de student het essay als een origineel werkstuk heeft geschreven.

Er zijn extra zorgen over generatieve AI.

Een cruciaal nadeel is dat de essays die door een op generatieve gebaseerde AI-app worden geproduceerd, verschillende onwaarheden kunnen bevatten, waaronder overduidelijk onware feiten, feiten die misleidend worden weergegeven en schijnbare feiten die volledig verzonnen zijn. Die verzonnen aspecten worden vaak een vorm van genoemd AI-hallucinaties, een slogan waar ik een hekel aan heb, maar die helaas toch populair lijkt te worden (voor mijn gedetailleerde uitleg over waarom dit een waardeloze en ongeschikte terminologie is, zie mijn berichtgeving op de link hier).

Ik zou graag één belangrijk aspect willen verduidelijken voordat we ingaan op dit onderwerp.

Er zijn een aantal maffe buitensporige claims op sociale media over generatieve AI beweren dat deze nieuwste versie van AI in feite is bewuste AI (nee, ze hebben ongelijk!). Degenen in AI-ethiek en AI-recht maken zich met name zorgen over deze snelgroeiende trend van uitgestrekte claims. Je zou beleefd kunnen zeggen dat sommige mensen overdrijven wat de huidige AI eigenlijk kan doen. Ze gaan ervan uit dat AI mogelijkheden heeft die we nog niet hebben kunnen bereiken. Dat is jammer. Erger nog, ze kunnen zichzelf en anderen in benarde situaties laten komen door de veronderstelling dat de AI bewust of menselijk zal zijn in het kunnen ondernemen van actie.

Antropomorfiseer AI niet.

Als u dit doet, raakt u verstrikt in een kleverige en stugge afhankelijkheidsval door te verwachten dat de AI dingen doet die hij niet kan uitvoeren. Dat gezegd hebbende, het nieuwste op het gebied van generatieve AI is relatief indrukwekkend voor wat het kan doen. Houd er echter rekening mee dat er aanzienlijke beperkingen zijn waarmee u voortdurend rekening moet houden bij het gebruik van een generatieve AI-app.

Als je geïnteresseerd bent in de snel groeiende commotie over ChatGPT en Generative AI, heb ik een gerichte serie in mijn column gedaan die je misschien informatief vindt. Hier volgt een overzicht voor het geval een van deze onderwerpen je aanspreekt:

  • 1) Voorspellingen van komende ontwikkelingen op het gebied van generatieve AI. Als je wilt weten wat er zich waarschijnlijk zal ontvouwen over AI in 2023 en daarna, inclusief aankomende ontwikkelingen in generatieve AI en ChatGPT, wil je mijn uitgebreide lijst met voorspellingen voor 2023 lezen op de link hier.
  • 2) Generatieve AI en advies over geestelijke gezondheid. Ik heb ervoor gekozen om te bekijken hoe generatieve AI en ChatGPT worden gebruikt voor advies over geestelijke gezondheid, een lastige trend, volgens mijn gerichte analyse op de link hier.
  • 3) Grondbeginselen van generatieve AI en ChatGPT. Dit stuk onderzoekt de belangrijkste elementen van hoe generatieve AI werkt en duikt in het bijzonder in de ChatGPT-app, inclusief een analyse van de buzz en fanfare, op de link hier.
  • 4) Spanning tussen docenten en studenten over generatieve AI en ChatGPT. Dit zijn de manieren waarop studenten op slinkse wijze generatieve AI en ChatGPT gebruiken. Daarnaast zijn er verschillende manieren waarop leraren deze vloedgolf het hoofd kunnen bieden. Zie je wel de link hier.
  • 5) Context en generatief AI-gebruik. Ik deed ook een seizoensgebonden ironisch onderzoek over een Santa-gerelateerde context met ChatGPT en generatieve AI op de link hier.
  • 6) Oplichters die generatieve AI gebruiken. Een onheilspellende opmerking: sommige oplichters hebben ontdekt hoe ze generatieve AI en ChatGPT kunnen gebruiken om wangedrag te plegen, waaronder het genereren van zwendel-e-mails en zelfs het produceren van programmeercode voor malware. Zie mijn analyse op de link hier.
  • 7) Rookie-fouten met behulp van generatieve AI. Veel mensen schieten zowel tekort als verrassend genoeg onder wat generatieve AI en ChatGPT kunnen doen, dus ik heb vooral gekeken naar de onderschrijding die AI-beginners vaak maken, zie de discussie op de link hier.
  • 8) Omgaan met generatieve AI-prompts en AI-hallucinaties. Ik beschrijf een toonaangevende benadering van het gebruik van AI-add-ons om de verschillende problemen aan te pakken die samenhangen met het proberen om geschikte prompts in generatieve AI in te voeren, plus er zijn aanvullende AI-add-ons voor het detecteren van zogenaamde AI-gehallucineerde outputs en onwaarheden, zoals gedekt bij de link hier.
  • 9) Bonehead-claims over het detecteren van generatieve AI-geproduceerde essays ontkrachten. Er is een misleidende goudkoorts van AI-apps die beweren te kunnen vaststellen of een bepaald essay door mensen is geproduceerd of door AI is gegenereerd. Over het algemeen is dit misleidend en in sommige gevallen een botte en onhoudbare bewering, zie mijn berichtgeving op de link hier.
  • 10) Rollenspel via generatieve AI kan nadelen voor de geestelijke gezondheid voorspellen. Sommigen gebruiken generatieve AI zoals ChatGPT om rollenspellen te doen, waarbij de AI-app reageert op een mens alsof hij zich in een fantasiewereld of een andere verzonnen setting bevindt. Dit kan gevolgen hebben voor de geestelijke gezondheid, zie de link hier.
  • 11) Het blootleggen van de reeks uitgevoerde fouten en onwaarheden. Er worden verschillende verzamelde lijsten samengesteld om te proberen de aard van door ChatGPT geproduceerde fouten en onwaarheden te laten zien. Sommigen geloven dat dit essentieel is, terwijl anderen zeggen dat de exercitie zinloos is, zie mijn analyse op de link hier.
  • 12) Scholen die generatieve AI ChatGPT verbieden, missen de boot. U weet misschien dat verschillende scholen, zoals het New York City (NYC) Department of Education, een verbod hebben afgekondigd op het gebruik van ChatGPT op hun netwerk en bijbehorende apparaten. Hoewel dit misschien een nuttige voorzorgsmaatregel lijkt, zal het de naald niet bewegen en helaas de boot volledig missen, zie mijn berichtgeving op de link hier.
  • 13) Generatieve AI ChatGPT zal overal zijn dankzij de aanstaande API. Er komt een belangrijke wending aan het gebruik van ChatGPT, namelijk dat via het gebruik van een API-portal in deze specifieke AI-app andere softwareprogramma's ChatGPT kunnen aanroepen en gebruiken. Dit zal het gebruik van generatieve AI drastisch uitbreiden en heeft opmerkelijke gevolgen, zie mijn uitwerking op de link hier.
  • 14) Manieren waarop ChatGPT zou kunnen bruisen of smelten. Verschillende potentiële vervelende problemen liggen voor ChatGPT in termen van het ondermijnen van de tot nu toe geweldige lof die het heeft ontvangen. Deze analyse gaat nauwkeurig in op acht mogelijke problemen die ervoor kunnen zorgen dat ChatGPT zijn stoom verliest en zelfs in het hondenhok terechtkomt, zie de link hier.

Misschien vindt u het interessant dat ChatGPT is gebaseerd op een versie van een eerdere AI-app die bekend staat als GPT-3. ChatGPT wordt beschouwd als een iets volgende stap, GPT-3.5 genoemd. Verwacht wordt dat GPT-4 waarschijnlijk in het voorjaar van 2023 zal worden uitgebracht. Vermoedelijk zal GPT-4 een indrukwekkende stap voorwaarts zijn in termen van het kunnen produceren van ogenschijnlijk nog vloeiendere essays, dieper gaan en ontzag wekken -inspirerende verwondering over de composities die het kan produceren.

Je kunt een nieuwe ronde van uitgesproken verwondering verwachten wanneer de lente aanbreekt en het nieuwste op het gebied van generatieve AI wordt uitgebracht.

Ik breng dit naar voren omdat er een andere invalshoek is om in gedachten te houden, namelijk een potentiële achilleshiel voor deze betere en grotere generatieve AI-apps. Als een AI-leverancier een generatieve AI-app beschikbaar stelt die schuimig onzin uitspuwt, zou dit de hoop van die AI-makers kunnen ondermijnen. Een maatschappelijke overloop kan ervoor zorgen dat alle generatieve AI een ernstig blauw oog krijgt. Mensen zullen ongetwijfeld behoorlijk van streek raken door foute output, wat al vele malen is gebeurd en heeft geleid tot luidruchtige maatschappelijke veroordelingen jegens AI.

Een laatste waarschuwing voor nu.

Wat je ook ziet of leest in een generatieve AI-reactie daarop lijkt om te worden overgebracht als puur feitelijk (data, plaatsen, mensen, enz.), zorg ervoor dat u sceptisch blijft en bereid bent om dubbel te controleren wat u ziet.

Ja, datums kunnen worden verzonnen, plaatsen kunnen worden verzonnen en elementen waarvan we normaal gesproken verwachten dat ze onberispelijk zijn allen onderhevig aan verdenkingen. Geloof niet wat u leest en blijf sceptisch bij het onderzoeken van essays of outputs van generatieve AI. Als een generatieve AI-app je vertelt dat Abraham Lincoln in zijn eigen privéjet door het land vloog, zou je ongetwijfeld weten dat dit malarky is. Helaas realiseren sommige mensen zich misschien niet dat er in zijn tijd nog geen straaljagers waren, of ze weten het misschien maar merken niet op dat het essay deze brutale en buitensporig valse bewering doet.

Een sterke dosis gezonde scepsis en een aanhoudende mentaliteit van ongeloof zullen uw beste troef zijn bij het gebruik van generatieve AI.

We zijn klaar om naar de volgende fase van deze opheldering te gaan.

Weten wat de duivel zal gebeuren met die tekst

Nu we de basis hebben gelegd, kunnen we ingaan op de gegevens- en informatieoverwegingen bij het gebruik van generatieve AI.

Laten we eerst kort bekijken wat er gebeurt als u wat tekst invoert in een prompt voor ChatGPT. We weten niet zeker wat er binnen ChatGPT gebeurt, aangezien het programma als bedrijfseigen wordt beschouwd. Sommigen hebben erop gewezen dat dit een gevoel van transparantie over de AI-app ondermijnt. Een ietwat vage opmerking is dat voor een bedrijf dat OpenAI heet, hun AI eigenlijk gesloten is voor openbare toegang en niet beschikbaar is als open source.

Laten we tokenisatie bespreken.

Wanneer u platte tekst invoert in een prompt en op Return drukt, vindt er vermoedelijk een conversie plaats die meteen plaatsvindt. De tekst wordt omgezet in een formaat bestaande uit tokens. Tokens zijn onderdelen van woorden. Het woord "hamburger" zou bijvoorbeeld normaal gesproken worden verdeeld in drie tokens, bestaande uit het gedeelte "ham", "bur" en "ger". Een vuistregel is dat tokens de neiging hebben om ongeveer vier karakters te vertegenwoordigen of als ongeveer 75% van een conventioneel Engels woord worden beschouwd.

Elk token wordt vervolgens geherformuleerd als een nummer. Verschillende interne tabellen geven aan welk token aan welk bepaald nummer is toegewezen. De acceptatie hiervan is dat de tekst die u hebt ingevoerd nu volledig een reeks cijfers is. Die nummers worden gebruikt om de prompt computationeel te analyseren. Bovendien is het patroonvergelijkingsnetwerk dat ik eerder noemde ook gebaseerd op getokeniseerde waarden. Uiteindelijk worden deze numerieke tokens eerst gebruikt bij het samenstellen of genereren van het uitgevoerde essay, en voordat ze worden weergegeven, worden de tokens weer omgezet in sets letters en woorden.

Denk daar eens even over na.

Als ik mensen vertel dat de mechanica van de verwerking zo werkt, zijn ze vaak stomverbaasd. Ze gingen ervan uit dat een generatieve AI-app zoals ChatGPT volledig integratieve woorden moet gebruiken. We nemen logischerwijs aan dat woorden fungeren als de hoeksteen voor het statistisch identificeren van relaties in geschreven verhalen en composities. Blijkt dat de verwerking eigenlijk de neiging heeft om tokens te gebruiken. Misschien vergroot dit de verbazing over hoe het rekenproces behoorlijk overtuigend lijkt om menselijke taal na te bootsen.

Ik heb je door dat proces geleid vanwege een algemene misvatting die zich lijkt te verspreiden. Sommige mensen lijken te geloven dat, omdat uw prompttekst wordt omgezet in numerieke tokens, u er zeker van bent dat de interne onderdelen van de AI-app op de een of andere manier niet langer uw oorspronkelijk ingevoerde tekst bevatten. Dus, zo luidt de bewering, zelfs als je vertrouwelijke informatie in je prompt hebt ingevoerd, hoef je je geen zorgen te maken, aangezien het allemaal schijnbaar tokenized is.

Dat idee is een misvatting. Ik heb er zojuist op gewezen dat numerieke tokens gemakkelijk kunnen worden teruggebracht in het tekstuele formaat van letters en woorden. Hetzelfde kan worden gedaan met de geconverteerde prompt die is getokeniseerd. Er is niets magisch beschermends aan getokeniseerd te zijn. Dat gezegd hebbende, als er na de conversie naar tokens een extra proces is dat ervoor kiest om tokens weg te laten, ze te verplaatsen en anderszins dingen door elkaar te gooien of te hakken, is er in dat geval inderdaad de mogelijkheid dat sommige delen van het origineel prompt zijn niet langer intact (en ervan uitgaande dat een origineel exemplaar niet op een andere manier wordt bewaard of ergens intern wordt opgeslagen).

Vervolgens wil ik de verschillende kennisgevingen en licentiebepalingen van ChatGPT bekijken.

Wanneer u zich aanmeldt bij ChatGPT, wordt er een reeks waarschuwingen en informatieve opmerkingen weergegeven.

Daar zijn ze:

  • "Kan af en toe onjuiste informatie genereren."
  • "Kan af en toe schadelijke instructies of bevooroordeelde inhoud produceren."
  • "Getraind om ongepaste verzoeken af ​​te wijzen."
  • "Ons doel is om externe feedback te krijgen om onze systemen te verbeteren en veiliger te maken."
  • “Hoewel we voorzorgsmaatregelen hebben getroffen, kan het systeem af en toe onjuiste of misleidende informatie genereren en aanstootgevende of bevooroordeelde inhoud produceren. Het is niet bedoeld om advies te geven.”
  • "Gesprekken kunnen worden beoordeeld door onze AI-trainers om onze systemen te verbeteren."
  • "Deel alstublieft geen gevoelige informatie in uw gesprekken."
  • “Dit systeem is geoptimaliseerd voor dialoog. Laat ons weten of een bepaalde reactie goed of niet nuttig was.”
  • “Beperkte kennis van wereld en gebeurtenissen na 2021.”

Twee van die genoemde waarschuwingen zijn vooral relevant voor deze discussie. Kijk naar het zesde opsommingsteken en het zevende opsommingsteken.

Laten we die twee uitpakken:

"Gesprekken kunnen worden beoordeeld door onze AI-trainers om onze systemen te verbeteren."

Dit zesde opsommingsteken legt uit dat tekstgesprekken bij het gebruik van ChatGPT mogelijk worden beoordeeld door ChatGPT via zijn "AI-trainers", wat wordt gedaan om hun systemen te verbeteren. Dit is om u te informeren dat voor al uw ingevoerde tekstprompts en de bijbehorende uitgevoerde essays, die allemaal deel uitmaken van het "gesprek" dat u voert met ChatGPT, het volledig kan worden gezien door hun mensen. De aangevoerde grondgedachte is dat dit wordt gedaan om de AI-app te verbeteren, en er wordt ons ook verteld dat het een soort werktaak is die wordt uitgevoerd door hun AI-trainers. Misschien wel, maar het resultaat is dat ze je op de hoogte hebben gesteld dat ze naar je tekst kunnen kijken. Punt, punt.

Als ze iets anders met uw tekst zouden doen, zou u waarschijnlijk juridisch advies inwinnen over de vraag of ze buiten de gesuggereerde grenzen zijn gekomen om alleen de tekst te herzien voor systeemverbeteringsdoeleinden (ervan uitgaande dat u erin bent geslaagd om te ontdekken dat ze dat hebben gedaan, welke van zelf lijkt misschien onwaarschijnlijk). Hoe dan ook, je kunt je het juridische gekibbel voorstellen om te proberen ze hierop vast te pinnen, en hun pogingen om zich met woorden een weg te banen uit het feit dat ze op de een of andere manier de grenzen van hun disclaimer hebben geschonden.

"Deel alstublieft geen gevoelige informatie in uw gesprekken."

Het zevende opsommingsteken geeft aan dat u geen gevoelige informatie mag delen in uw gesprekken. Dat lijkt relatief eenvoudig. Ik veronderstel dat je zou kunnen kibbelen met wat de definitie van gevoelige informatie inhoudt. Ook vertelt het opsommingsteken u niet waarom u geen gevoelige informatie zou moeten delen. Als je op een dag in het zweet moet proberen uit te leggen waarom je dwaas vertrouwelijke gegevens hebt ingevoerd, zou je de opgetrokken wenkbrauw kunnen proberen te beweren dat de waarschuwing niet-specifiek was en daarom de betekenis niet begreep. Houd daar je adem in.

Al met al durf ik te zeggen dat de meeste mensen die ik ChatGPT heb zien gebruiken, de neiging hebben om de punten met opsommingstekens niet te lezen, of dat ze de voorzorgsmaatregelen met opsommingstekens overslaan en gewoon met hun hoofd knikken alsof het de gebruikelijke brabbeltaal is die je allemaal ziet tijd. Weinigen lijken de waarschuwingen strikt ter harte te nemen. Is dit een fout van de verkoper omdat hij de voorzorgsmaatregelen niet meer uitgesproken heeft gemaakt? Of moeten we ervan uitgaan dat de gebruikers verantwoordelijk zijn en de waarschuwingen aandachtig hebben gelezen, begrepen en vervolgens oordeelkundig handelen?

Sommigen beweren zelfs dat de AI-app je herhaaldelijk zou moeten waarschuwen. Elke keer dat u een prompt invoert, moet de software een waarschuwing weergeven en u vragen of u op Return wilt drukken. Opnieuw en opnieuw. Hoewel dit misschien een nuttige voorzorgsmaatregel lijkt, zou het de gebruikers behoorlijk irriteren. Er is een netelige afweging bij betrokken.

Oké, dus dat zijn de voor de hand liggende waarschuwingen die alle gebruikers gemakkelijk kunnen zien.

Gebruikers die misschien nieuwsgieriger zijn, kunnen ervoor kiezen om enkele van de gedetailleerde licentiebepalingen na te streven die ook online worden geplaatst. Ik betwijfel of velen dat doen. Mijn vermoeden is dat weinigen serieus naar de opsommingstekens kijken bij het inloggen, en nog minder met een enorme marge, kijken dan naar de licentiedetails. Nogmaals, we zijn tegenwoordig allemaal een beetje gevoelloos voor zulke dingen. Ik verontschuldig het gedrag niet, ik merk alleen op waarom het zich voordoet.

Ik zal een paar fragmenten uit de geposte licentievoorwaarden onderzoeken.

Ten eerste is hier een definitie van wat zij beschouwen als "inhoud" die verband houdt met het gebruik van ChatGPT:

  • “Uw inhoud. U kunt input leveren aan de Services ('Input') en uitvoer ontvangen die is gegenereerd en geretourneerd door de Services op basis van de Input ('Output'). Invoer en uitvoer zijn gezamenlijk 'inhoud'. Zoals tussen de partijen en voor zover toegestaan ​​door de toepasselijke wetgeving, bent u eigenaar van alle Input, en onder voorbehoud van uw naleving van deze Voorwaarden, draagt ​​OpenAI hierbij al zijn rechten, aanspraken en belangen in en op Output aan u over. OpenAI kan indien nodig Inhoud gebruiken om de Services te leveren en te onderhouden, om te voldoen aan de toepasselijke wetgeving en om ons beleid te handhaven. U bent verantwoordelijk voor de Inhoud, inclusief ervoor te zorgen dat deze geen toepasselijke wetgeving of deze Voorwaarden schendt.”

Als je die definitie zorgvuldig bekijkt, zul je merken dat OpenAI verklaart dat het de inhoud kan gebruiken zoals zij dat nodig achten om zijn diensten te onderhouden, inclusief het naleven van toepasselijke wetten en het handhaven van zijn beleid. Dit is een handige vangnet voor hen. In een van mijn komende columns zal ik een ander maar verwant onderwerp bespreken, met name over de intellectuele eigendomsrechten (IP) die u heeft met betrekking tot de ingevoerde tekstprompts en uitgevoerde essays (ik wijs dit hierin aan aangezien de definitie van de inhoud heeft betrekking op dat onderwerp).

In een ander deel van de voorwaarden, aangeduid als sectie c, noemen ze dit facet: “Een van de belangrijkste voordelen van machine learning-modellen is dat ze in de loop van de tijd kunnen worden verbeterd. Om OpenAI te helpen de Services te leveren en te onderhouden, stemt u ermee in en instrueert u ons dat we Content mogen gebruiken om de Services te ontwikkelen en te verbeteren.” Dit lijkt op de eerder besproken waarschuwing van één regel die verschijnt wanneer u zich aanmeldt bij ChatGPT.

Een apart document dat hieraan gekoppeld is, geeft enkele aanvullende aspecten over deze gewichtige zaken:

  • “Als onderdeel van deze continue verbetering kunnen we, wanneer u OpenAI-modellen gebruikt via onze API, de gegevens die u ons verstrekt gebruiken om onze modellen te verbeteren. Dit helpt onze modellen niet alleen nauwkeuriger te worden en beter in het oplossen van uw specifieke probleem, het helpt ook hun algemene mogelijkheden en veiligheid te verbeteren. We weten dat gegevensprivacy en -beveiliging van cruciaal belang zijn voor onze klanten. We besteden veel zorg aan het gebruik van passende technische en procescontroles om uw gegevens te beveiligen. We verwijderen alle persoonlijk identificeerbare informatie uit gegevens die we willen gebruiken om de prestaties van modellen te verbeteren. We gebruiken ook slechts een kleine steekproef van gegevens per klant voor onze inspanningen om de modelprestaties te verbeteren. Voor één taak is het maximale aantal API-verzoeken dat we per klant bemonsteren bijvoorbeeld beperkt tot 200 elke 6 maanden” (uittreksel uit het document met de titel “Hoe uw gegevens worden gebruikt om modelprestaties te verbeteren”).

Merk op dat de bepaling aangeeft dat de bepaling van toepassing is op de gebruik van de API als een middel om verbinding te maken met en gebruik te maken van de OpenAI-modellen, alles bij elkaar. Het is enigszins onduidelijk of dit ook geldt voor eindgebruikers die rechtstreeks gebruikmaken van ChatGPT.

In weer een ander document, een document dat hun lijst met verschillende veelgestelde vragen bevat, geven ze een reeks vragen en antwoorden, waarvan er twee bijzonder relevant lijken voor deze discussie:

  • “(5) Wie kan mijn gesprekken bekijken? Als onderdeel van onze toewijding aan veilige en verantwoorde AI, beoordelen we gesprekken om onze systemen te verbeteren en om ervoor te zorgen dat de inhoud voldoet aan ons beleid en onze veiligheidseisen.”
  • “(8) Kun je specifieke prompts verwijderen? Nee, we kunnen geen specifieke prompts uit uw geschiedenis verwijderen. Deel alstublieft geen gevoelige informatie in uw gesprekken.”

Er is een aanvullend document dat hun privacybeleid behandelt. Er staat dit: "We verzamelen informatie die alleen of in combinatie met andere informatie in ons bezit kan worden gebruikt om u te identificeren ("Persoonlijke informatie")" en legt vervolgens uit dat ze mogelijk loggegevens, gebruiksgegevens, communicatie-informatie, apparaatinformatie, cookies, analyses en andere potentieel verzamelbare informatie over u. Zorg ervoor dat u de kleine lettertjes leest.

Ik denk dat dit vrij veel een rondleiding geeft van enkele overwegingen die ten grondslag liggen aan hoe uw gegevens kunnen worden gebruikt. Zoals ik aan het begin al zei, ga ik niet moeizaam alle licentiebepalingen doorlopen.

Hopelijk brengt dit u in een gemoedstoestand over deze zaken en blijft u on top of your mind.

Conclusie

Ik heb het al eerder gezegd en ik zeg het nog een keer, voer geen vertrouwelijke of privégegevens in deze generatieve AI-apps in.

Overweeg een paar handige tips of opties voor dit wijze advies:

  • Denk na voordat u generatieve AI gebruikt
  • Verwijder dingen van tevoren
  • Masker of vervals uw invoer
  • Stel uw eigen instantie in
  • Overige

Ik zal hierna aangeven waaruit elk daarvan bestaat. Het instellen van uw eigen instantie is hierin eerder behandeld. Het gebruik van "anders" in mijn lijst is te wijten aan de mogelijkheid van andere manieren om te voorkomen dat vertrouwelijke gegevens worden opgenomen, waar ik in een toekomstige column verder op in zal gaan.

Laten we deze eens bekijken:

  • Denk na voordat u generatieve AI gebruikt. Eén benadering houdt in dat het gebruik van generatieve AI helemaal wordt vermeden. Of denk in ieder geval twee keer na voordat je dat doet. Ik veronderstel dat de veiligste manier is om deze AI-apps niet te gebruiken. Maar dit lijkt ook behoorlijk ernstig en bijna overboord.
  • Verwijder dingen van tevoren. Een andere benadering bestaat uit het verwijderen van vertrouwelijke of privé-informatie van alles wat u als prompt invoert. In die zin is er geen kans dat het in de Borg terechtkomt als je het niet betreedt. Het nadeel is dat het verwijderen van het vertrouwelijke gedeelte misschien op de een of andere manier vermindert of ondermijnt wat u probeert de generatieve AI voor u te laten doen.
  • Masker of vervals uw invoer. U kunt uw voorgestelde tekst wijzigen door de informatie te wijzigen, zodat alles wat vertrouwelijk of privé leek, nu anders wordt weergegeven. In plaats van een contract waarin bijvoorbeeld de Widget Company en John Smith worden genoemd, wijzigt u de tekst om te verwijzen naar de Specious Company en Jane Capone. Een probleem hier is of u voldoende grondig werk zult doen, zodat alle vertrouwelijke en privé-aspecten volledig zijn gewijzigd of vervalst. Het zou gemakkelijk zijn om sommige vertroebelingen te missen en dingen achter te laten die er niet zouden moeten zijn.

Hier is een interessante toegevoegde wending die je noggin verder zou kunnen laten doorsijpelen over dit onderwerp. Als u er volledig zeker van kunt zijn dat geen van uw invoerprompts vertrouwelijke informatie bevat, betekent dit dan dat u zich geen zorgen hoeft te maken dat de uitgevoerde essays ook uw vertrouwelijke informatie bevatten?

Dit lijkt axiomatisch waar. Geen vertrouwelijke input, geen vertrouwelijke output.

Hier is je geestverruimende draai.

Generatieve AI is vaak opgezet om zichzelf computationeel om te scholen op basis van de tekstprompts die worden verstrekt. Evenzo wordt generatieve AI vaak bedacht om computationeel om te leren van de uitgevoerde essays. Al deze omscholing is bedoeld om de mogelijkheden van generatieve AI te verbeteren.

In een van mijn andere columns beschreef ik het volgende experiment dat ik ondernam. Een advocaat probeerde een nieuwe manier te vinden om een ​​juridische kwestie aan te pakken. Na een uitputtende bestudering van de juridische literatuur, leken alle reeds opgedoken invalshoeken gevonden te zijn. Met behulp van generatieve AI lieten we de AI-app een nieuwigheid van een juridische benadering produceren die schijnbaar nog niet eerder was geïdentificeerd. Men geloofde dat nog niemand anders op deze juridische positie was beland. Een legale goudklomp als het ware. Dit zou een strategisch waardevolle, concurrerende juridische bonanza kunnen zijn die op het juiste moment kan worden benut en uitgebuit.

Vormt dat uitgevoerde essay een vorm van vertrouwelijke informatie, zodat het door de AI voor deze specifieke persoon is gegenereerd en iets speciaals en schijnbaar unieks bevat?

Aha, dit leidt ons naar het andere gelieerde en verweven onderwerp over de eigendoms- en IP-rechten die verband houden met generatieve AI. Blijf op de hoogte om te zien hoe dit afloopt.

Voor nu een laatste opmerking.

Sophocles verschafte deze wijsheid: “Doe niets in het geheim; want Tijd ziet en hoort alle dingen, en onthult alles.” Ik veronderstel dat je de formulering zou kunnen moderniseren en beweren dat generatieve AI en degenen die de AI bedenken en onderhouden, geneigd zijn om alles te zien.

Het is een bescheiden symbolisch advies dat het waard is om onthouden te worden.

Bron: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- ethiek-en-ai-recht/