Google va divulguer les images créées ou modifiées par l’intelligence artificielle dans les résultats de recherche. Le géant de la technologie prévoit d’offrir plus de transparence en ajoutant des étiquettes aux images créées ou modifiées par l’IA.
Ce changement intervient après que Google se soit associé à de grandes entreprises au sein de la Coalition for Content Provenance and Authenticity (C2PA), qui vise à lutter contre la diffusion d’informations trompeuses en ligne. Examinons les détails du plan de Google visant à signaler le contenu généré par l’IA et les questions qui l’entourent.
La chasse à l’IA de Google : un spectacle secondaire ?
Dans les mois à venir, Google commencera à étiqueter les contenus générés et modifiés par l’IA. images dans les résultats de recherche. Cela sera fait en utilisant les métadonnées du Accréditations du contenu standard, qui comprend des informations telles que quand, où et comment l’image a été créée. Les utilisateurs pourront voir cette balise grâce à la fonctionnalité « À propos de cette image » de Google, accessible en cliquant sur les trois points au-dessus d’une image dans les résultats de recherche.
L’idée derrière cette démarche est de donner aux utilisateurs un moyen de retracer la source des images et de faciliter la recherche. repérer le contenu généré par l’IA. Cette décision intervient après que Google a rejoint d’autres entreprises technologiques telles qu’Amazon, Adobe et Microsoft pour élaborer les dernières directives sur les informations d’identification du contenu. Ensemble, ces entreprises espèrent accroître la transparence et réduire la diffusion d’images fausses ou trompeuses.
Si l’initiative de Google est un pas dans la bonne direction, il convient de noter que l’étiquette ne sera pas immédiatement évidente. Les utilisateurs devront rechercher activement des informations en cliquant sur la section « À propos de cette image », ce qui pourrait rendre la fonctionnalité moins efficace que certains pourraient le penser.
Comment les utilisateurs accéderont-ils aux informations de l’IA ?
La nouvelle fonction est disponible dans Google Lens et dans la fonction « Circle to Search » d’Android. Elle indique désormais si une image a été générée ou modifiée à l’aide de l’intelligence artificielle. Le fait de ne pas afficher directement l’étiquette peut entraîner une méconnaissance de l’existence de cet outil chez de nombreux utilisateurs. Comme il faut effectuer des étapes supplémentaires, certaines personnes peuvent ne jamais être en mesure de confirmer si une image a été générée par l’IA à moins de connaître déjà la fonctionnalité. Même si les personnes en sont conscientes, le processus peut toujours être difficile, en particulier si elles s’attendent à ce que les images produites par l’IA soient indiquées plus clairement.
Malgré cette contrainte, le partenariat de Google avec C2PA peut s’avérer précieux, car la norme Content Credentials offre une structure plus large pour suivre l’origine du contenu numérique. Néanmoins, cette norme n’a pas été adoptée par tous les développeurs d’IA. Certaines organisations, comme Laboratoires de la Forêt Noireont choisi de ne pas l’inclure, ce qui pourrait compliquer les efforts visant à retracer la source des images générées par des modèles spécifiques.
Préoccupations concernant l’efficacité : Google en fait-il assez ?
Il existe également un problème plus important : les images générées par l’IA deviennent de plus en plus difficiles à détecter. Une université de Waterloo Une étude a révélé que 39 % des personnes ne sont pas capables de faire la différence entre les images générées par l’IA et les images réelles. Si cette tendance se poursuit, le système d’étiquetage de Google pourrait ne pas suffire à aider les utilisateurs à identifier en toute confiance le contenu généré par l’IA.
En outre, d’autres entreprises technologiques ne donnent pas le bon exemple. Meta, par exemple, a récemment déplacé les informations de marquage vers une position moins visible dans les publications. Cela soulève la question de savoir si les géants de la technologie sont vraiment déterminés à rendre le contenu généré par l’IA plus transparent, ou s’ils ne prennent que des mesures minimales.
Peu d’appareils photo, comme le Leica M-11P et Nikon Z9livré avec intégré Accréditations du contenu. Cela signifie que si les photographes et les développeurs ne choisissent pas d’utiliser ces outils, le système ne sera pas aussi efficace qu’il pourrait l’être. La transparence du contenu généré par l’IA repose en grande partie sur la collaboration intersectorielle, et jusqu’à présent, tout le monde ne semble pas s’y investir de la même manière.
Parallèlement, l’essor des images générées par l’IA a suscité de nouvelles inquiétudes quant à la désinformation. Des deepfakes aux photos de nu générées par l’IA, le potentiel de nu est évident. Même si le nouveau système d’étiquetage de Google ne résoudra pas tous ces problèmes, il constitue un petit pas vers la réduction de la diffusion de contenus trompeurs en ligne.
Crédits images : Furkan Demirkaya / Idéogramme IA
Source: La balise d’image IA de Google sera-t-elle facile à repérer ?