Bien qu’une définition de l’équité en tant que mot puisse être convenue, concrètement, son application concrète peut faire l’objet d’une analyse plus approfondie.
Tout comme définir ce qui est juste ou non peut être un véritable dilemme pour les gens, c’est aussi un défi pour l’intelligence artificielle et un défi qu’une nouvelle initiative de la Michigan State University cherche à atténuer.
Classes d’équité pour les algorithmes d’IA
Considérant que les systèmes d’intelligence artificielle sont de plus en plus présents dans les activités et services quotidiens, il est nécessaire de garantir une impartialité suffisante aux plateformes impliquées pour décider qui bénéficie des bons soins médicaux, qui est éligible à un prêt bancaire, ou qui est affecté. un travail.
Avec un financement d’Amazon et de la National Science Foundation, Pang-Ning Tan, chercheur et professeur au Département d’informatique et d’ingénierie de l’université américaine susmentionnée a passé la dernière année à former des algorithmes d’intelligence artificielle pour les aider à discerner entre l’équité et iniquité de leurs actions.
«Nous essayons de concevoir des systèmes d’IA qui ne sont pas uniquement destinés à l’informatique, mais apportent également de la valeur et des avantages à la société. J’ai donc commencé à réfléchir à quels sont les domaines qui sont actuellement difficiles pour la société », a déclaré le chercheur à propos de la justification de son initiative.
Ce projet soulève la nécessité de développer des initiatives ayant un impact direct sur ses utilisateurs. Développant ce même point, Tan a également déclaré que «l’équité est un très gros problème, d’autant plus que nous devenons de plus en plus dépendants de l’IA pour les besoins quotidiens, comme les soins médicaux, mais aussi des choses qui semblent banales, comme le filtrage du spam ou la mise en place d’articles dans votre section d’actualités . »
Même en tant que systèmes automatisés, les algorithmes d’IA peuvent véhiculer certains biais hérités des données utilisées dans leur formation ou même être transmis directement par leurs créateurs. Par exemple, selon une enquête menée par l’équipe de recherche de Tan, il existe des cas de systèmes d’IA qui font preuve de discrimination raciale lors de la gestion des soins médicaux et de la ségrégation sexuelle à l’égard des femmes dans les systèmes de candidature à un emploi.
Sur cette réalité, Abdol-Hossein Esfahanian, un membre de l’équipe de recherche de Tan, a commenté que «les algorithmes sont créés par des personnes et que les gens ont généralement des préjugés, donc ces préjugés sont filtrés … nous voulons avoir l’équité partout, et nous voulons avoir un meilleur comprendre comment l’évaluer.
Avec le soutien des théories des sciences sociales, Tan et son équipe cherchent à se rapprocher de la notion la plus universelle d’équité possible. Pour atteindre cet objectif, les principes d’équité véhiculés à l’algorithme ne viendront pas d’un point de vue unique, le mettant au défi de trancher entre des positions concurrentes ou contradictoires.
«Nous essayons de rendre l’IA consciente de la justice, et pour ce faire, vous devez lui dire ce qui est juste. Mais comment concevoir une mesure d’équité qui soit acceptable par tous? » a noté Tan, ajoutant que «nous examinons comment une décision affecte non seulement les individus, mais aussi leurs communautés et leurs cercles sociaux.»
Le travail est ambitieux et malgré les progrès, il ne fait que commencer. «Il s’agit d’une recherche en cours. Il y a beaucoup de problèmes et de défis – comment définissez-vous l’équité, comment pouvez-vous aider les gens à faire confiance à ces systèmes que nous utilisons tous les jours », a déclaré Tan, ajoutant que« notre travail en tant que chercheurs est de trouver des solutions à ces problèmes. »
Le rapport complet de cette recherche peut être consulté sur le Site Web de l’Université d’État du Michigan.