Le conseil de surveillance de Meta, un conseil semi-indépendant chargé d’examiner les décisions politiques de l’entreprise, s’est récemment concentré sur le traitement des images explicites générées par l’IA sur Instagram et Facebook.
Cette décision répond aux préoccupations concernant l’efficacité des systèmes de modération de Meta dans la détection et la réponse aux contenus répréhensibles.
Examinons en détail ces enquêtes et leurs implications plus larges.
Examiner les cas
Selon Le rapport de TechCrunch, dans un cas, un utilisateur a signalé le nu d’une personnalité publique généré par l’IA sur Instagram, mais les systèmes de Meta n’ont pas réussi à le supprimer rapidement. Malgré plusieurs rapports, le contenu répréhensible a persisté jusqu’à l’intervention du Conseil de surveillance.
De même, sur Facebook, une image explicite générée par l’IA ressemblant à une personnalité publique américaine a été partagée au sein d’un groupe axé sur l’IA. Bien que Meta ait finalement retiré l’image, des questions subsistent quant à l’efficacité de ses processus de modération.
Le Conseil de surveillanceLa sélection de cas en Inde et aux États-Unis souligne des préoccupations plus larges concernant les politiques de la plateforme et les pratiques d’application de Meta. En examinant l’impact mondial du contenu généré par l’IA, en particulier sur la sécurité des femmes, le conseil vise à garantir une protection équitable entre les régions.
Le deepfake est le fléau de notre époque
La prolifération de la pornographie deepfake et de la violence sexiste en ligne ajoute un autre niveau de complexité. Avec les outils d’IA permettant la création de contenu explicite, les plateformes sont confrontées à des difficultés pour détecter et supprimer rapidement les contenus nuisibles. Dans des régions comme l’Inde, où les deepfakes ciblant les actrices se sont multipliés, la nécessité de mesures réglementaires robustes devient évidente.
Les experts soulignent l’urgence de mettre en œuvre des mesures strictes pour freiner la propagation des contenus explicites générés par l’IA. De la limitation des résultats du modèle d’IA à l’introduction d’un étiquetage par défaut pour une détection facile, des mesures proactives sont cruciales pour atténuer les dommages. Cependant, le paysage juridique reste fragmenté, seules quelques juridictions adoptant des lois traitant spécifiquement de la pornographie générée par l’IA.
Vous vous souvenez de la saga « Jésus aux crevettes » ?
Au milieu de ces enquêtes, Facebook se retrouve mêlé à une saga particulière : l’émergence d’images générées par l’IA, notamment des représentations de Jésus sous la forme d’une crevette. Ces créations surréalistes, provenant souvent de pages piratées, mettent en évidence l’intersection de la technologie de l’IA et de la manipulation des médias sociaux.
Les motivations derrière ce flot de contenus générés par l’IA restent ambiguës. Si certains spéculent sur de potentielles arnaques, d’autres y voient une quête de renommée virale. Néanmoins, des inquiétudes persistent concernant l’utilisation abusive d’images synthétiques à des fins de campagnes de désinformation.
La démarche à franchir
Les enquêtes du Conseil de surveillance sur les images générées par l’IA sur les plateformes de Meta mettent en lumière les défis changeants de la modération du contenu à l’ère numérique. À mesure que la technologie progresse et que les outils d’IA deviennent plus accessibles, l’impératif de protéger les utilisateurs contre les contenus préjudiciables devient de plus en plus urgent. Il incombe aux plateformes comme Facebook d’adopter des mesures proactives et de favoriser un environnement en ligne plus sûr pour tous les utilisateurs.
Crédit image en vedette: Méta
Source: Le comité de surveillance de Meta enquête sur les images générées par l’IA sur Instagram et Facebook