Un groupe d’experts en IA et de cadres technologiques, dont Elon Musk et le co-fondateur d’Apple Steve Wozniak, ont publié un lettre ouverte exhortant les principaux laboratoires d’intelligence artificielle à suspendre le développement de systèmes d’IA plus avancés que GPT-4. La lettre ouverte, publiée mardi par l’Institut à but non lucratif Future of Life, compte environ 1 000 signataires et cite les “risques profonds” pour la société humaine comme raison de l’appel à l’action.
La lettre appelle à un arrêt immédiat de la formation des systèmes pendant au moins six mois, qui doit être public, vérifiable et inclure tous les acteurs publics. “Les systèmes d’IA dotés d’une intelligence compétitive humaine peuvent poser des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA”, commence la lettre.
Les experts de l’IA tirent la sonnette d’alarme sur les “risques profonds” pour la société humaine
Le groupe soutient que les systèmes d’IA avancés pourraient représenter un changement profond dans l’histoire de la vie sur Terre et devraient être planifiés et gérés avec un soin et des ressources proportionnés. Cependant, ils disent que ce niveau de planification et de gestion ne se produit pas, bien que ces derniers mois aient vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne, pas même leurs créateurs, ne peut comprendre. , prévoir ou contrôler de manière fiable.
La lettre ouverte intervient quelques semaines seulement après les débuts publics du GPT-4 d’OpenAI, le grand modèle de langage qui alimente la version premium du très populaire chatbot ChatGPT. Le nouveau GPT-4 peut gérer des tâches plus complexes et produire des résultats plus nuancés que les versions précédentes et est également moins sujet aux défauts des versions précédentes, selon OpenAI.
Pour faire leur travail, des systèmes comme GPT-4 doivent être entraînés sur de grandes quantités de données sur lesquelles ils peuvent ensuite s’appuyer pour répondre à des questions et effectuer d’autres tâches. ChatGPT, qui a fait irruption sur la scène en novembre, a la capacité humaine d’écrire des e-mails professionnels, de planifier des itinéraires de voyage, de produire du code informatique et de bien réussir des tests tels que l’examen du barreau.
Depuis le début de l’année, des entreprises de Google et Microsoft à Adobe, Snapchat et Grammarly ont toutes annoncé des services qui tirent parti de ces compétences génératives en IA.
Cependant, les propres recherches d’OpenAI ont montré que ces compétences en IA comportent des risques. Les systèmes d’IA générative peuvent citer des sources non fiables ou, comme l’a noté OpenAI, “augmenter les problèmes de sécurité en prenant des mesures nuisibles ou involontaires, en augmentant les capacités des mauvais acteurs qui frauderaient, induiraient en erreur ou abuseraient des autres”.
Le groupe à l’origine de la lettre ouverte affirme que les entreprises se précipitent sur des produits sans garanties adéquates ni même en comprenant les implications. Les experts en intelligence artificielle sont effrayés par la direction que tout cela pourrait prendre. La lettre dit: «Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leur créateurs – peuvent comprendre, prédire ou contrôler de manière fiable.
Les signataires de la lettre estiment que la société doit prendre du recul et suspendre le développement pendant qu’ils évaluent les risques et mettent en place des garanties. Ils appellent à la transparence, au débat public et à l’engagement du public autour des développements de l’IA, afin que chacun puisse avoir son mot à dire sur l’avenir de l’IA.
La lettre ouverte a suscité un débat parmi les experts de l’IA, certains affirmant qu’une pause est nécessaire pour garantir que l’IA est développée de manière sûre et éthique. D’autres, cependant, craignent qu’une pause ne ralentisse les progrès et ne donne à d’autres pays un avantage dans le développement de l’IA.
Malgré le débat, il est clair que l’IA progresse à un rythme rapide et a le potentiel de changer nos vies de manière profonde. Il appartient à la société dans son ensemble de veiller à ce que ce changement soit géré de manière responsable et éthique.