L’essor de l’intelligence artificielle générative a permis des avancées incroyables, mais a également entraîné des conséquences plus sombres en ligne. L’un de ces problèmes est la copie de visages et de corps, souvent appelée deepfakes. Elle peut facilement créer des images de nu synthétiques qui peuvent causer de graves dommages aux individus. Les personnes dont les photos intimes ont été partagées sans leur consentement ont eu du mal à supprimer ces images d’Internet. Microsoft est intervenu avec une résolution qui pourrait offrir un soutien grandement nécessaire.
Microsoft a fait une avancée importante en introduisant un nouvel outil permettant aux victimes de deepfakes de supprimer ces images du moteur de recherche Bing. Cette initiative récente vise à lutter contre la prolifération de faux contenus pornographiques sur Internet qui semblent représenter de vraies personnes, un phénomène aggravé par les progrès de l’intelligence artificielle.
Arrêtez la diffusion de contenus pour adultes deepfake de Microsoft
Partenariat de Microsoft avec Arrêtez le NCII (Arrêtez les images intimes non consensuelles) représente une collaboration vitale dans la lutte contre «vengeance” et des images de nus truquées. StopNCII est une organisation qui permet aux victimes de créer une empreinte numérique ou un “hachage” d’images explicites, qu’elles soient réelles ou générées par l’IA, sur leurs appareils. Cette empreinte est ensuite utilisée pour suivre et supprimer les images incriminées sur diverses plateformes.
Bing, la plateforme de Microsoft, rejoint désormais les rangs d’autres grandes plateformes technologiques telles que Facebook, Instagram, TikTok et Reddit. Il s’agit d’un ajout essentiel aux mesures de sécurité déjà complètes de Microsoft, qui reposaient auparavant sur un outil de signalement direct. Si l’option de signalement direct permettait aux utilisateurs de signaler les contenus préjudiciables, elle n’était pas suffisante pour faire face au volume de contenu offensant. En intégrant la technologie d’empreinte numérique de StopNCII, Microsoft vise à empêcher plus efficacement et de manière proactive ces images d’apparaître dans les résultats de recherche et à aider les victimes à reprendre le contrôle de leurs actifs numériques.
La lutte continue contre le deepfake
La question des images de nu générées par l’IA est devenue une préoccupation croissante avec des implications généralisées, en particulier dans des pays comme l’ États-Unis où il n’existe aucune loi fédérale visant spécifiquement la pornographie deepfake par IA. Cela a entraîné seulement 23 états promulguer des lois pour remédier à deepfakes non consensuelslaissant les victimes dans de nombreuses régions sans recours juridique adéquat. Le partenariat de Microsoft avec StopNCII et le nouvel outil sur Bing pourraient apporter un certain soulagement dans un environnement où les protections juridiques sont incohérentes.
Cependant, le problème est pas limité aux adultesLes lycéens sont également ciblés par «se déshabiller” des sites qui créent de fausses images de nus, ce qui démontre la nécessité de lois plus strictes et de protections plus complètes. Les outils de StopNCII ne couvrent actuellement que les personnes de plus de 18 ans. Pourtant, l’impact plus large de ces technologies néfastes est clair, et la nécessité de mesures plus strictes pour protéger les jeunes utilisateurs est inévitable.
L’engagement de Microsoft en matière de sécurité numérique
Microsoft est conscient depuis longtemps des effets néfastes du partage d’images intimes sans autorisation et a pris des mesures pour faire face à ce problème. En 2015, Microsoft a lancé un outil de signalement centralisé visant à aider les utilisateurs à signaler et supprimer les relations intimes non consensuelles Mais à mesure que la technologie derrière les images synthétiques a évolué, l’approche de Microsoft a également évolué.
L’entreprise a également plaidé en faveur de lois modernisées pour protéger les victimes de contenus générés par l’IA et a publié des propositions de politiques visant à protéger les femmes et les enfants contre les abus en ligne. En outre, Microsoft continue d’améliorer ses politiques internes pour empêcher la création et la distribution de tels contenus sur ses plateformes, notamment Bing, Xbox et d’autres services grand public.
Le nouvel outil de Microsoft est un grand pas en avant, mais la lutte contre le deepfake n’est pas terminée. Les nouvelles technologies apportent de nouveaux défis, et nous devons réagir rapidement. Microsoft travaille avec StopNCII et d’autres groupes pour lutter contre le deepfake. Mais nous avons besoin de l’aide de tous.
Microsoft encourage les personnes qui craignent que leurs images intimes soient partagées à utiliser les outils StopNCII et à signaler les violations à Microsoft. Cela contribuera à stopper la diffusion de ces images et donnera aux victimes un certain contrôle. Si la technologie a permis de nouvelles formes d’abus, elle offre également de nouveaux moyens de riposter. La dernière initiative de Microsoft illustre cette lutte permanente.
Crédits de l’image en vedette : Johannes Krupinski / Unsplash
Source: Nouvelle initiative de Microsoft pour lutter contre les vidéos pour adultes deepfake