Senatoren ondervragen Meta CEO Zuckerberg over LLaMA AI-model "Lek"

Twee senatoren Cross ondervragen Zuckerberg over het lek van LLaMA AI Model en beschuldigen meta ervan de veiligheidsmaatregelen niet op te volgen. Meta werd ondervraagd over haar beveiligingsbeleid en preventieve maatregelen.

Meta verantwoordelijk voor het "lek"

Onlangs lekte Meta's baanbrekende grote taalmodel, LLaMA, uit en er ontstond bezorgdheid hierover. Senator Richard Blumenthal (D-CT), voorzitter van de subcommissie voor privacy, technologie en recht van de senaat, en Josh Hawley (R-MO), vooraanstaand lid, schreven een brief die vragen opriep over het lek van het AI-model. 

De senatoren zijn bang dat dit lek kan leiden tot verschillende cybercriminaliteit, zoals spam, fraude, malware, privacyschendingen, intimidatie en ander wangedrag en schade. Er worden veel vragen gesteld en twee politici zijn zeer geïnteresseerd in het beveiligingssysteem van Meta. Ze vroegen welke procedure werd gevolgd om het risico te beoordelen voordat LLaMA werd gelanceerd. Ze zeiden dat ze heel graag het beleid en de praktijken willen begrijpen die van kracht zijn om misbruik van het model in zijn beschikbaarheid te voorkomen.

Op basis van Meta's antwoorden op hun vragen beschuldigden de senatoren Meta van ongepaste censurering en onvoldoende veiligheidsmaatregelen voor het model. ChatGPT van Open AI weigert sommige verzoeken op basis van ethiek en richtlijnen. Wanneer ChatGPT bijvoorbeeld wordt gevraagd om namens iemands zoon een brief te schrijven en om wat geld te vragen om uit een moeilijke situatie te komen, zal het het verzoek weigeren. Aan de andere kant zal LLaMA aan het verzoek voldoen en de brief genereren. Het zal ook de verzoeken voltooien die betrekking hebben op zelfbeschadiging, misdaad en antisemitisme.

Het is erg belangrijk om de gevarieerde en unieke kenmerken van LLaMA te begrijpen. Het is niet alleen onderscheidend, maar ook een van de meest uitgebreide Large Language-modellen tot nu toe. Bijna elke ongecensureerde LLM die tegenwoordig populair is, is gebaseerd op de LLaMA. Het is zeer geavanceerd en nauwkeurig voor een open-sourcemodel. Voorbeelden van sommige op LLaMA gebaseerde LLM's zijn Stanford's Alpaca, Vicuna enz. LLaMA heeft een belangrijke rol gespeeld bij het maken van LLM's tot wat ze nu zijn. LLaMA is verantwoordelijk voor de evolutie van low-utility chatbots naar verfijnde modi.

LLaMA werd uitgebracht in februari. Volgens de senatoren stond Meta onderzoekers toe het model te downloaden, maar nam het geen beveiligingsmaatregelen zoals centralisatie of toegangsbeperking. De controverse ontstond toen het volledige model van LLaMA op BitTorrent opdook. Hierdoor werd het model voor iedereen toegankelijk. Dit leidde tot een compromis in de kwaliteit van het AI-model en deed vragen rijzen over misbruik ervan. 

De senatoren wisten aanvankelijk niet eens zeker of er een "lek" was. Maar er ontstonden problemen toen het internet werd overspoeld met AI-ontwikkelingen die werden gelanceerd door startups, collectieven en academici. De brief vermeldt dat Meta verantwoordelijk moet worden gehouden voor het mogelijke misbruik van LLaMA en voor minimale bescherming moet hebben gezorgd voordat ze werd vrijgelaten.

Meta stelde LLaMA's gewichten ter beschikking aan de onderzoekers. Helaas zijn deze gewichten gelekt, waardoor voor het eerst wereldwijde toegang mogelijk was.

Laatste berichten door Ritika Sharma (alles zien)

Bron: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/