FBI waarschuwt voor AI Deepfake afpersingszwendel

De capaciteiten van generatieve AI om levensechte beelden te creëren zijn indrukwekkend, maar het Amerikaanse Federal Bureau of Investigation zegt dat criminelen deepfakes gebruiken om slachtoffers voor afpersing aan te vallen.

"De FBI blijft meldingen ontvangen van slachtoffers, waaronder minderjarige kinderen en niet-instemmende volwassenen, van wie foto's of video's zijn veranderd in expliciete inhoud", zei het bureau maandag in een PSA-waarschuwing.

De FBI zegt dat wetshandhavingsinstanties vorig jaar meer dan 7,000 meldingen hebben ontvangen van online afpersing gericht op minderjarigen, met een stijging van het aantal slachtoffers van zogenaamde "sextortion scams" met behulp van deepfakes sinds april.

Een deepfake is een steeds vaker voorkomend type video- of audio-inhoud gemaakt met kunstmatige intelligentie die valse gebeurtenissen weergeeft die steeds moeilijker te onderscheiden zijn als nep, dankzij generatieve AI-platforms zoals Midjourney 5.1 en OpenAI's DALL-E 2.

In mei ging een deepfake van Tesla en Twitter-CEO Elon Musk, gemaakt om crypto-investeerders op te lichten, viraal. De video die op sociale media werd gedeeld, bevatte beelden van Musk uit eerdere interviews, bewerkt om bij de zwendel te passen.

Deepfakes zijn niet allemaal kwaadaardig, een deepfake van paus Franciscus die een wit Balenciaga-jack droeg, ging eerder dit jaar viraal, en meer recentelijk zijn door AI gegenereerde deepfakes ook gebruikt om slachtoffers van moord weer tot leven te wekken.

In haar aanbevelingen waarschuwde de FBI tegen het betalen van losgeld, omdat dit niet garandeert dat de criminelen de deepfake toch niet zullen plaatsen.

De FBI adviseert ook om voorzichtig te zijn bij het online delen van persoonlijke informatie en inhoud, inclusief het gebruik van privacyfuncties zoals het privé maken van accounts, het volgen van de online activiteiten van kinderen en het letten op ongewoon gedrag van mensen met wie u in het verleden contact hebt gehad. Het bureau raadt ook aan om regelmatig online naar informatie over persoonlijke en gezinsleden te zoeken.

Andere instanties die alarm slaan, zijn onder meer de Amerikaanse Federal Trade Commission, die waarschuwde dat criminelen deepfakes hebben gebruikt om nietsvermoedende slachtoffers te misleiden om geld te sturen nadat ze een audio-deepfake hadden gemaakt van een vriend of familielid die zegt dat ze zijn ontvoerd.

“Kunstmatige intelligentie is niet langer een vergezocht idee uit een sciencefictionfilm. We leven ermee, hier en nu. Een oplichter zou AI kunnen gebruiken om de stem van je geliefde te klonen”, zei de FTC in een consumentenwaarschuwing in maart, eraan toevoegend dat alle criminelen een korte audioclip van de stem van een familielid nodig hebben om de opname echt te laten klinken.

De FBI heeft nog niet gereageerd Ontsleutelen verzoek om commentaar.

Blijf op de hoogte van cryptonieuws, ontvang dagelijkse updates in je inbox.

Bron: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams