Corée du Sud: un label de K-pop mène en justice une action contre les images pornographiques truquées de ses artistes

Partager


L’agence JYP Entertainment lance des poursuites pour condamner les «deepfakes», le contenu pornographique généré grâce à l’intelligence artificielle, qui touche le pays en masse.

Vendredi, un important label sud-coréen s’est engagé à lancer une action en justice forte contre les vidéos «deepfake » représentant ses artistes de K-pop, après la révélation de l’existence de canaux Telegram partageant du contenu pornographique généré grâce à l’intelligence artificielle, qui a choqué le pays. Des manifestations ont eu lieu à Séoul.

«Nous sommes très préoccupés par la récente diffusion de vidéos truquées impliquant nos artistes», a déclaré l’agence JYP Entertainment, label de plusieurs bandes de K-pop, dont le groupe féminin Twice. «Nous sommes en train de rassembler toutes les preuves pertinentes afin d’intenter une action en justice la plus ferme possible (…) sans aucune indulgence», a ajouté JYP Entertainment.

En début de semaine, le président Yoon Suk Yeol a demandé l’ouverture d’une enquête sur les hypertrucages pornographiques («deepfake porn»). De nombreux médias du pays ont rapporté ces dernières semaines l’explosion de ces hypertrucages plaquant des visages dans des contenus sexuels grâce à des logiciels d’intelligence artificielle.

Les auteurs de ces falsifications profondes se servent parfois des réseaux sociaux tels qu’Instagram pour enregistrer ou capturer des photos de leurs victimes. Les principales victimes sont les filles et les jeunes femmes, la police affirmant qu’environ 60% de ces victimes sont mineures.

D’Instagram au suicide

L’annonce de JYP Entertainment intervient environ deux mois après qu’un autre label de K-pop, ADOR, eut déclaré que la police enquêtait sur les créateurs et les distributeurs qui tiraient profit d’un deepfake représentant des chanteuses de l’un de leurs groupes, NewsJeans.

La Corée du Sud est le pays le plus touché par ces contrefaçons profondes pornographiques, selon un rapport 2023 de la startup spécialisée dans la cybersécurité Security Hero, les chanteuses et actrices du pays représentant 53% des personnes figurant dans les contenus examinés.

En 2019, la star de la K-pop Goo Hara s’est suicidée à l’âge de 28 ans après avoir été victime d’un autre type de violence sexuelle en ligne, le «revenge porn» (du contenu sexuel privé diffusé sans consentement sur internet) et de menaces de la part d’un ex-petit ami mécontent.



#Corée #Sud #label #Kpop #mène #justice #une #action #contre #les #images #pornographiques #truquées #ses #artistes

Source link

Home

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut