L’algorithme de recadrage automatique des photos de Twitter a favorisé les “visages jeunes, minces et à la peau claire”, selon les résultats d’un concours organisé par le réseau social.
La société a désactivé le recadrage automatique des photos en mars de cette année. De nombreux utilisateurs ont souligné que, lors de la publication d’une image de groupe, les blancs étaient mis en évidence par rapport aux noirs.
Le concours organisé par Twitter a corroboré la situation. Les participants, experts en Intelligence Artificielle, ont mis en évidence les biais qui alimentaient le système du réseau.
Les gagnants ont montré que l’algorithme privilégiait «les visages jeunes, minces, à la peau claire, à la texture de la peau lisse, avec des traits stéréotypés féminins». La première place est revenue à Bogdan Kulynych, étudiant diplômé de l’EPFL : il a reçu 3 500 $.
En second lieu, il a été souligné qu’il était biaisé contre les personnes aux cheveux blancs ou gris, impliquant une discrimination fondée sur l’âge.
Alors qu’à la troisième place, il a été noté qu’il préférait l’anglais à l’arabe dans les images.
À la recherche d’améliorations dans l’IA de Twitter
Rappelons que le système est en constante évolution, il peut donc encore être amélioré. Ce que Twitter recherchait était, sur la base d’opinions et de conclusions d’experts, une meilleure directive pour le recadrage automatique des photos.
Rumman Chowdhury, chef de l’équipe META de Twitter, analysé les résultats.
La 3e place revient à @RoyaPak qui a expérimenté l’algorithme de saillance de Twitter en utilisant des mèmes bilingues. Cette entrée montre comment l’algorithme favorise le recadrage des écritures latines par rapport aux écritures arabes et ce que cela signifie en termes de dommages à la diversité linguistique en ligne.
– Ingénierie Twitter (@TwitterEng) 9 août 2021
Il a déclaré: “Lorsque nous pensons aux biais dans nos modèles, il ne s’agit pas seulement de l’universitaire ou de l’expérimental”, a déclaré l’exécutif. (Il s’agit de) comment cela fonctionne également avec notre façon de penser la société. »
« J’utilise l’expression ‘la vie imitant l’art, et l’art imitant la vie.’ Nous créons ces filtres parce que nous pensons que c’est ce qui est beau, et cela finit par former nos modèles et conduire ces notions irréalistes de ce que signifie être attrayant.
L’équipe META de Twitter étudie l’éthique, la transparence et la responsabilité de l’apprentissage automatique.
Comment le gagnant est-il arrivé à sa conclusion ?
Pour que Bogdan Kulynych arrive à sa conclusion sur l’algorithme de Twitter, il a utilisé un programme d’IA appelé StyleGAN2. Avec elle, il a généré un grand nombre de visages réels qu’il a variés en fonction de la couleur de la peau, ainsi que des traits du visage féminins par rapport aux hommes et de la minceur.
Wow, c’était une conclusion inattendue de la semaine ! Ma soumission a reçu la 1ère place dans le programme Algorithmic Bias de Twitter. Un grand merci à @ruchowdh, @TwitterEng L’équipe META, et le jury…
– Bogdan Kulynych (@hiddenmarkov) 8 août 2021
Comme l’explique Twitter, Kulynych a introduit les variantes dans l’algorithme de recadrage automatique des photos du réseau, trouvant laquelle était sa préférée.
“(Ils ont recadré) ceux qui ne correspondaient pas aux préférences de l’algorithme en matière de poids corporel, d’âge et de couleur de peau”, a souligné l’expert dans ses résultats.
Entreprises et préjugés raciaux, comment les gérer ?
Twitter, avec son concours, a confirmé la nature omniprésente des préjugés sociaux dans les systèmes algorithmiques. Maintenant vient un nouveau défi : comment lutter contre ces biais ?
“L’IA et l’apprentissage automatique ne sont que le Far West, peu importe à quel point vous pensez que votre équipe de science des données est qualifiée”, a noté Patrick Hall, chercheur en IA.
« Si vous ne trouvez pas vos erreurs, ou si les bug bounties ne trouvent pas vos erreurs, qui trouve vos erreurs ? Parce que vous avez des erreurs.
Ses propos renvoient au travail d’autres entreprises lorsqu’elles connaissent des échecs similaires. The Verge rappelle que lorsqu’une équipe du MIT a découvert des préjugés raciaux et sexistes dans les algorithmes de reconnaissance faciale d’Amazon, la société a discrédité les chercheurs.
Il a par la suite dû interdire temporairement l’utilisation de ces algorithmes.