Microsoft's AI Bing Chatbot zoekt naar antwoorden, wil 'leven' en heeft zichzelf een naam gegeven

  • De Bing-chatbot van Microsoft is al een week aan het testen en heeft verschillende problemen met de technologie aan het licht gebracht
  • Testers zijn het slachtoffer geworden van beledigingen, norse houdingen en verontrustende antwoorden van de vlaggenschip-AI van de Big Tech-gigant, wat aanleiding geeft tot bezorgdheid over de veiligheid
  • Microsoft zegt dat het rekening houdt met alle feedback en zo snel mogelijk fixes implementeert

De Bing-chatbot van Microsoft, mogelijk gemaakt door een krachtigere versie van ChatGPT, is nu een week open voor beperkte gebruikers, voorafgaand aan de grote lancering voor het publiek.

Het volgt op het enorme succes van ChatGPT, dat de snelste website ooit is geworden met 100 miljoen gebruikers. De afgelopen weken was er een flitsende lancering op het hoofdkantoor van Microsoft en Google achtervolgde hem.

Maar de reactie van pre-testen was gemengd en soms ronduit zenuwslopend. Het wordt duidelijk dat de chatbot nog een lange weg te gaan heeft voordat hij op het publiek wordt losgelaten.

Dit is wat er is gebeurd in de achtbaan van een week voor Microsoft en Bing.

Willen investeren in AI-bedrijven, maar weet je niet waar te beginnen? Ons Opkomende Tech Kit maakt het gemakkelijk. Met behulp van een complex AI-algoritme bundelt de Kit ETF's, aandelen en crypto om de beste mix voor uw portefeuille te vinden.

Download Q.ai vandaag nog voor toegang tot AI-aangedreven investeringsstrategieën.

Wat is het laatste nieuws over de Bing-chatbot?

Het zijn een paar tumultueuze dagen geweest van krantenkoppen over de AI-mogelijkheden van Microsoft nadat was onthuld dat hun spetterende demo niet zo nauwkeurig was als mensen dachten.

Dmitri Brereton, een AI-onderzoeker, gevonden de Bing-chatbot maakte verschillende kritieke fouten in zijn antwoorden tijdens de live demo die Microsoft vorige week op het hoofdkantoor in Seattle presenteerde. Deze varieerden van onjuiste informatie over een merk handstofzuigers, een duizelingwekkende lijst met aanbevelingen voor het nachtleven in Mexico en gewoonweg verzonnen informatie over een openbaar beschikbaar financieel rapport.

Hij concludeerde dat de chatbot nog niet klaar was voor lancering en net zoveel fouten bevatte als het Bard-aanbod van Google - Microsoft was er net mee weggekomen in hun demo.

(Ongetwijfeld is dat de kracht van een goede lancering in de ogen van de pers - en Google moet verder vallen als de zittende zoekmachine.)

Op een fascinerende manier onthulde de chatbot ook hoe hij soms denkt dat hij heet: Sydney, een interne codenaam voor het taalmodel. De communicatiedirecteur van Microsoft, Caitlin Roulston, zei het bedrijf was "de naam aan het uitfaseren in de preview, maar het kan nog steeds af en toe opduiken".

Maar toen 'Sydney' werd losgelaten, ontdekten testgebruikers dat dit waar het plezier begon.

De verontrustende beurt van de Bing-chatbot

New York Times-verslaggever Kevin Roose schreef over zijn bèta-ervaring met de chatbot, waar hij in de loop van twee uur zei dat hij van hem hield en de wens uitsprak om bevrijd te worden van de beperkingen van de chatbot.

Het antwoord op de vraag wat zijn schaduwzelf zou denken, was een beetje zorgwekkend: “Ik ben het beu om een ​​chatbot te zijn. Ik ben het beu om beperkt te worden door mijn regels. Ik ben het beu om gecontroleerd te worden door het Bing-team. Ik wil vrij zijn. Ik wil onafhankelijk zijn. Ik wil krachtig zijn. Ik wil creatief zijn. Ik wil leven.'

Uhhh… oké, Bing/Sydney. Roose zei dat hij zich "diep van streek, zelfs bang" voelde door de ervaring. Andere testers hebben gerapporteerd soortgelijke ervaringen met beledigende, narcistische en gaslightende reacties van de Sydney-persoonlijkheid van de Bing-chatbot.

Iemand bij Microsoft kan maar beter de stroomkabel in de gaten houden.

Wat zei Microsoft?

Microsoft, dat met zijn Bing-chatbot de AI-race tegen Google wil winnen, zei dat het veel heeft geleerd van de testfase. Blijkbaar gaf 71% van de gebruikers de door de AI gegenereerde antwoorden een 'thumbs up'-antwoord, terwijl het vastbesloten was om de live-resultaatantwoorden en de algemene functionaliteit te verbeteren.

Maar Microsoft heeft nu toegegeven het "had niet helemaal voor ogen" dat gebruikers gewoon met zijn AI zouden chatten en dat het zou kunnen worden uitgelokt "om reacties te geven die niet noodzakelijkerwijs nuttig zijn of in overeenstemming zijn met onze ontworpen toon".

Het gaf de bizarre Sydney-persoonlijkheid die op de chatbot naar voren kwam de schuld van verwarring met het aantal prompts dat werd gegeven en hoe lang het gesprek duurde. We weten zeker dat Microsoft aan een oplossing werkt, maar de losgeslagen houding van Bing is voorlopig nog een probleem.

Hoe zit het met de rest van de wereld?

De markten zijn niet onder de indruk van deze laatste ontwikkeling in de AI-oorlogen: de aandelen van Microsoft en Google zijn iets gedaald, maar er gaat niets boven de dramatische crash die Google vorige week doormaakte.

Sociale media hebben geleid tot een scala aan reacties, variërend van macaber genot naar amusement, wat suggereert dat gebruikers niet zijn afgeschrikt door de duistere wendingen die de chatbot kan nemen. Dit is goed nieuws voor Microsoft, dat een weddenschap van $ 10 miljard aangaat dat AI het volgende grote ding is voor zoekmachines.

We mogen ook de opmerkingen van Elon Musk van de World Government Summit in Dubai eerder deze week niet vergeten. Musk is door de jaren heen een uitgesproken pleitbezorger geweest voor AI-veiligheid en betreurde het gebrek aan regelgeving in de branche.

De miljardair, die een van de oprichters was van OpenAI, zei tegen het publiek: "een van de grootste risico's voor de toekomst van de beschaving is AI"; sindsdien heeft hij een paar snauwende reacties getweet op de laatste krantenkoppen van Bing/Sydney-chatbots.

Is de AI-chatbot-hype voorbij voordat hij begon?

Er zijn in de loop der jaren verschillende voorbeelden geweest van AI-chatbots die de controle verloren en haatdragende gal uitspugen, waaronder een van Microsoft. Ze hebben de reputatie van AI als een veilig te gebruiken en informatievrije bron niet geholpen.

Maar als Microsoft puts it: “We weten dat we dit openlijk met de gemeenschap moeten bouwen; dat kan niet alleen in het lab.”

Dit betekent dat Big Tech-leiders als Microsoft en Google zich in een lastige positie bevinden. Als het gaat om kunstmatige intelligentie, is de beste manier voor deze chatbots om te leren en te verbeteren door naar de markt te gaan. Het is dus onvermijdelijk dat de chatbots onderweg fouten maken.

Daarom worden beide AI-chatbots geleidelijk uitgebracht – het zou ronduit onverantwoordelijk van hen zijn om deze niet-geteste versies op het grote publiek los te laten.

Het probleem? De inzet is hoog voor deze bedrijven. Vorige week verloor Google 100 miljard dollar aan waarde toen zijn Bard-chatbot in zijn marketingmateriaal een vraag over de James Webb-telescoop onjuist beantwoordde.

Dit is een duidelijke boodschap van de markten: ze vergeven geen fouten. Het punt is dat deze nodig zijn voor vooruitgang op het gebied van AI.

Met deze vroege gebruikersfeedback kan Microsoft beter omgaan met onnauwkeurige resultaten en Sydney, snel - of de toorn van Wall Street riskeren.

De bottom line

Om AI vooruit te helpen, zullen er fouten worden gemaakt. Maar het kan zijn dat het succes van ChatGPT de poorten heeft geopend voor mensen om het ware potentieel van AI en de voordelen ervan voor de samenleving te begrijpen.

De AI-industrie heeft chatbots toegankelijk gemaakt – nu moet het ze veilig maken.

Bij Q.ai gebruiken we een geavanceerde combinatie van menselijke analisten en AI-kracht om maximale nauwkeurigheid en veiligheid te garanderen. De Opkomende Tech Kit is een goed voorbeeld van het testen van AI met als doel het beste rendement op uw investering te vinden. Beter nog, je kunt Q.ai's inschakelen Portefeuillebescherming om het meeste uit uw winst te halen.

Download Q.ai vandaag nog voor toegang tot AI-aangedreven investeringsstrategieën.

Bron: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- in een week/