Alain Delon, Florent Pagny… comment déceler les arnaques générées par IA?

Partager


DÉCRYPTAGE – Des vidéos truquées exploitent l’image et la voix de célébrités pour soutirer de l’argent à leurs fans. Jérôme Mondi, expert en IA générative, explique comment repérer ces arnaques.

«Si vous voyez cette vidéo, c’est que je suis déjà mort. J’ai décidé de redistribuer une partie de mon argent à tous les Français. Je vous donnerai 100.000 euros si vous ne pouvez pas gagner dans mon casino en ligne». Dans cette vidéo devenue virale sur les réseaux sociaux, Alain Delon promet une fortune aux internautes. Mais ces déclarations de l’acteur, décédé quelques jours plus tôt, sont en réalité factices et générées à l’aide d’une intelligence artificielle. Cette publicité redirige vers un faux site imitant le Google Play Store, magasin d’application du système d’exploitation Android. Une application est ensuite proposée aux internautes, baptisée «Casino Delon» et soi-disant développée par sa fille Anouchka Delon. Mais une fois téléchargé, le logiciel subtilise les données personnelles et bancaires de l’internaute dans le but de lui soutirer de l’argent. 

Ces fichiers audio ou vidéos au réalisme troublant sont réalisés à l’aide de logiciels de création de deepfakes («hypertrucages»). Ces derniers permettent de remplacer un visage par celui d’une autre personne, de reconstituer la voix d’une célébrité et de falsifier des propos. Une fois des photos ou des véritables vidéos de la victime sont récupérées par ces arnaqueurs, il ne suffit que de quelques étapes pour générer de faux contenus. Ce nouveau type d’arnaque est le dernier filon en date pour subtiliser données bancaires, informations personnelles mais aussi obtenir des transferts d’argent de la part d’internautes dupés. 

Comment identifier cette arnaque ? 

Le développement des outils d’IA générative s’est couplé à une diffusion massive de ce type de vidéos. TikTok a ainsi été inondé il y a quelques mois de vidéos truquées de victimes d’assassinats représentant le petit Grégory, Samuel Paty ou Alexia Daval. Seulement 33 % des Français s’estiment capables de discerner un contenu photo ou vidéo généré par une IA d’un contenu réel, selon un sondage de l’IFOP. Alors que ces trucages sont de plus en réalistes, reprenant même les habillages de grands médias traditionnels pour lancer de vastes campagnes de désinformation, est-il possible de démêler le vrai du faux ?

«Le défi est de taille. Aujourd’hui, il est possible de reproduire de manière convaincante la voix de quelqu’un, et de générer des vidéos à partir d’une série d’images, y compris des vidéos avec un ’face swap’ (échange de visages) où les mouvements des yeux, comme le clignement naturel, sont parfaitement imités. Autrefois, l’absence de clignements réalistes facilitait la détection des deepfakes, mais cette faiblesse a été corrigée par les algorithmes modernes» souligne Jérôme Mondi, consultant et formateur en IA générative. 

Pourtant, même avec ces améliorations, certains défauts peuvent encore trahir un deepfake. Un montage mal réalisé, «peut présenter des mouvements anormaux, des déformations ou des incohérences dans les ombres et les lumières, qui ne correspondent pas au reste de la scène», pointe l’expert.

Plus tôt dans le mois, c’était au tour de l’image du chanteur Florent Pagny d’être manipulée par IA. Une fan du chanteur qui croyait entretenir une relation directe et privée avec lui a été escroquée de quelques centaines d’euros. «C’est ma voix, c’est moi qui parle, mais je n’ai jamais filmé ça» alerte ainsi la célébrité. Jérôme Mondi note des indices qui prouvent l’inauthenticité de la vidéo qui a piégé cette fan. «La voix a des tonalités robotiques, ce qui indique que la technologie n’est pas encore parfaitement au point pour certaines manipulations vocales»

Une pratique punie par la loi

En début d’année, la diffusion de fausses images pornographiques de la star planétaire Taylor Swift avait suscité une vague d’indignation chez ses millions de fans et dans la classe politique américaine, provoquant une prise de conscience chez les législateurs américains. Depuis, les contenus créés grâce à l’IA et publiés sur les grandes plateformes telles que TikTok ou Instagram, doivent être explicitement indiqués comme tel. 

La France s’est aussi emparée de cette question avec la loi de sécurisation de l’espace numérique promulguée en mai dernier. 


Il est essentiel de faire preuve de bon sens et de scepticisme face à des situations qui semblent trop belles pour être vraies

Jérôme Mondi, expert en IA générative

Elle punit d’un an d’emprisonnement et de 15.000 euros d’amende le fait de diffuser le « contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne » sans l’autorisation de celle-ci, et sur lequel l’utilisation de l’IA n’est pas expressément mentionnée. Cette sanction est portée à 45.000 euros d’amende et deux ans d’emprisonnement en cas d’utilisation d’un service de communication en ligne, comme les réseaux sociaux. L’auteur d’un deepfake à caractère sexuel risque, lui, trois ans d’emprisonnement et 75.000 euros d’amende.

Au-delà des aspects techniques, Jérôme Mondi martèle qu’il «est essentiel de faire preuve de bon sens et de scepticisme face à des situations qui semblent trop belles pour être vraies, comme une relation privée avec une célébrité»

Il est important de rester vigilant, par exemple en suggérant un appel vidéo en face-à-face, ou en demandant des preuves de la localisation de la personne pour aider à vérifier la véracité de ce qu’elle raconte. En mai, une étude de Milan presse et CSA soulignait la difficulté à lutter contre ces fausses vidéos. 79% des sondés estimaient ne pas être suffisamment informés pour s’en protéger. «Ces précautions permettent de se protéger contre les manipulations et de réduire les risques de tomber dans le piège des deepfakes», assure l’expert.



#Alain #Delon #Florent #Pagny #comment #déceler #les #arnaques #générées #par

Source link

Home

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut