L’utilisation de l’IA est de plus en plus courante et c’est pourquoi l’UE propose des règles nouvelles et plus strictes. L’UE a décidé de faire un pas en avant avec la publication de sa première proposition de réglementation, avec des règles plus strictes pour réglementer l’utilisation de l’IA.
Le projet de règles décrit comment les entreprises et les gouvernements de tous les États membres pourront utiliser cette technologie, en fixant des limites à l’utilisation de l’IA dans diverses activités, des voitures autonomes aux décisions de location, en passant par les prêts bancaires, la sélection des frais de scolarité ou la notation des examens, et même son utilisation par les forces de l’ordre et les systèmes judiciaires, et d’autres domaines qui menacent la sécurité des personnes ou les droits fondamentaux.
L’UE montre son approche de l’IA avec les nouvelles propositions de règles
La Commission européenne se concentre sur les applications à haut risque de l’IA et fournit des garanties pour la sécurité des individus, de leurs droits et intérêts, sans introduire d’obstacles majeurs pour les entreprises qui souhaitent mettre sur le marché des produits et services basés sur l’IA.
La proposition est présentée dans le cadre d’une «approche basée sur les risques autour de certaines utilisations de l’IA en fonction de l’impact potentiel sur les personnes, classant jusqu’à quatre niveaux différents, parmi lesquels seules les utilisations militaires sont exclues.
En partant du risque minimal, on retrouve des usages banals tels que les loisirs et l’intelligence artificielle inclus, par exemple, dans certains jouets ou jeux vidéo, ou des applications de création musicale ou de retouche d’images, entre autres, pour lesquelles le règlement ne précise pas l’application des toute mesure restrictive.
Des mesures qui commenceront à «risque limité», qui incluent les systèmes d’IA fermés avec lesquels les utilisateurs peuvent contacter, tels que les chatbots, qui doivent désormais respecter un niveau minimum de transparence, en plus d’être avertis à tout moment en tant que contact non humain .
Un deuxième point de «risque élevé» comprend les systèmes qui créent un impact négatif sur la sécurité des personnes ou leurs droits fondamentaux, les utilisations dans des infrastructures critiques qui peuvent affecter la santé, l’éducation, les systèmes de recrutement du personnel, les services publics, la législation ou la justice.
Il existe une catégorie appelée “inacceptable”
En outre, les systèmes d’identification biométrique à distance seront également considérés comme à haut risque et de nouvelles exigences plus strictes leur seront applicables. Bien que la Commission européenne n’ait pas décidé de les interdire directement, elle établit que l’utilisation de la reconnaissance faciale sera interdite dans les espaces publics et vivants. Bien qu’il y ait quelques exceptions telles que la recherche de personnes dépendantes ou disparues, la prévention d’une menace terroriste spécifique et imminente, ou l’identification d’un auteur ou d’un suspect d’un crime grave.
Au niveau le plus élevé, nous trouverons la section «risque inacceptable», qui englobera les utilisations considérées comme une menace pour «la notation sociale par les gouvernements, l’exploitation des vulnérabilités des enfants, l’utilisation de techniques subliminales, et – sous réserve d’exceptions étroites – des systèmes d’identification biométrique à distance en direct dans des espaces accessibles au public et utilisés à des fins d’application de la loi. »
Enfin, une fois de plus, le besoin d’interaction et de contrôle humains a été mis en évidence, considérant que l’Intelligence Artificielle ne doit jamais remplacer ou exonérer les êtres humains de leur responsabilité.
Cependant, la Commission européenne n’a pas encore approuvé ce nouveau règlement, un processus qui pourrait prolonger la mise en œuvre de ces mesures de plus d’un an. S’il a déjà été précisé que, si pour le moment seuls certains usages de l’Intelligence Artificielle seront réglementés, ces réglementations auront une «marge d’innovation», entrant déjà dans la régulation d’autres nouveaux sujets d’actualité tels que la robotique ou les imprimantes 3D.