Le 27 juin, le problème est survenu avec une vidéo du journal britannique Daily Mail, selon le New York Times. Facebook s’est excusé et a désactivé la fonction de recommandations pour évaluer le fonctionnement de son IA à la suite du tollé général.
Cet événement ne fait qu’ajouter à la longue liste de comportements racistes et sexistes que l’IA reproduit. Nous avons discuté de la façon dont les sites de médias sociaux tels que Facebook mettent en évidence les photographies de personnes blanches tout en discriminant les autres races à plus d’une occasion.
Une vidéo sur les primates a été recommandée à l’utilisateur, dans laquelle un homme noir et un homme blanc se disputaient. Selon les informations des médias britanniques, l’homme blanc était abusif envers l’autre personne et la police a dû être appelée. Mais, quel que soit le sujet de la vidéo, Facebook a suggéré après la vidéo avec ce message : “Je veux continuer à regarder des vidéos sur les primates ?
Le Daily Mail a été le premier à critiquer Facebook, mais l’erreur ne leur a pas été révélée au départ. Plus tard, Facebook s’est excusé auprès du New York Times : « Comme nous l’avons déjà dit, bien que nous ayons progressé dans l’IA, ce n’est pas parfait et il y a encore du travail à faire ».
Pour examiner ce qui s’est passé et essayer d’éviter que cela ne se reproduise, la société qui possède également WhatsApp et Instagram a désactivé la fonction de recommandations dans son réseau social principal.
Autres erreurs
«Chaque jour, nous voyons les limites, les préjugés et la pure idiotie de se fier uniquement à l’intelligence artificielle. Et pourtant, nous continuons à nous permettre d’être des cobayes », a déclaré Nicole Perlroth, rédactrice en cybersécurité du New York Times, en réponse à cet exemple.
L’intelligence artificielle n’échappe pas à la règle selon laquelle les humains ont tendance à hériter de préjugés les uns des autres. Ces dernières semaines, Twitter a également dû faire face à cette réalité : ses algorithmes intelligents privilégient les photos de jeunes blancs.
Les programmes qui utilisent l’intelligence artificielle sont biaisés car ils s’appuient fréquemment sur un ensemble d’échantillons ou de paramètres pour entraîner les fonctions. Il sera difficile pour l’intelligence artificielle d’identifier le reste de l’humanité qui ne correspond pas à ces critères si l’échantillon est limité et comprend de nombreuses images d’une race ou d’un sexe.