Une augmentation significative des services de deepfake nus par l’IA, comme le rapporte Graphika, met en évidence une tendance inquiétante dans l’utilisation de l’intelligence artificielle pour générer des images intimes non consensuelles, soulevant de sérieuses préoccupations éthiques et juridiques.
Popularité croissante des outils de déshabillage IA
Graphika, une société d’analyse des médias sociaux, a signalé une augmentation inquiétante de l’utilisation d’outils de « déshabillage de l’IA ». Ces outils d’IA générative sont calibrés avec précision pour supprimer les vêtements des images soumises par les utilisateurs, avec une augmentation stupéfiante de 2 408 % des références en ligne à ces services.
Les images intimes synthétiques non consensuelles (NCII) impliquent généralement la génération de contenu explicite sans le consentement des individus représentés. Ces outils présentent des menaces de harcèlement ciblé, de sextorsion et de production de matériel pédopornographique (CSAM).
L’Internet Watch Foundation (IWF), une société de surveillance Internet basée au Royaume-Uni, a Souligné le défi de faire la distinction entre la pornographie générée par l’IA et les images authentiques, ce qui complique les efforts de lutte contre les abus en ligne.
Réponse internationale
L’ONU a décrit Les médias générés par l’IA constituent une menace « sérieuse et urgente » pour l’intégrité de l’information. En réponse, le Parlement européen et le Conseil ont récemment convenu de règles régissant l’utilisation de l’IA dans l’UE.
Source: L’augmentation des services de deepfake nus générés par l’IA sonne l’alarme