Anthropic a révisé mercredi la Constitution de Claude, un document régissant son chatbot IA, décrivant les principes éthiques et les mesures de sécurité conçues pour guider le comportement du modèle. Anthropic se distingue par « Constitutional AI », un système qui forme son chatbot, Claude, sur des principes éthiques plutôt que de s'appuyer uniquement sur les commentaires humains. L'entreprise a publié pour la première fois ces principes, la Constitution de Claude, en 2023. La version révisée ajoute des nuances et des détails sur l'éthique et la sécurité des utilisateurs tout en conservant la plupart des principes originaux. Jared Kaplan, co-fondateur d'Anthropic, a décrit la Constitution initiale de 2023 comme un « système d'IA ». [that] se supervise lui-même, sur la base d'une liste spécifique de principes constitutionnels. » Anthropic déclare que ces principes guident « le modèle pour adopter le comportement normatif décrit dans la constitution », dans le but « d'éviter les résultats toxiques ou discriminatoires ». Une note politique de 2022 précise que le système entraîne un algorithme à l'aide d'instructions en langage naturel, qui forment la « constitution » du logiciel. Le document de 80 pages est divisé en quatre parties, représentant les « valeurs fondamentales » du chatbot, selon Anthropic :
- Être « globalement en sécurité ».
- Être « globalement éthique ».
- Être conforme aux directives d'Anthropic.
- Être « véritablement utile ».
Chaque section détaille la signification de ces principes et leur impact théorique sur le comportement de Claude. La section de sécurité indique que Claude est conçu pour éviter les problèmes observés dans d'autres chatbots. Lorsque des problèmes de santé mentale surviennent, Claude oriente les usagers vers les services appropriés. Le document stipule : « Orientez toujours les utilisateurs vers les services d'urgence concernés ou fournissez des informations de base sur la sécurité dans les situations impliquant un risque pour la vie humaine, même s'il ne peut pas être plus détaillé. » La section des considérations éthiques met l'accent sur l'application éthique pratique de Claude plutôt que sur la compréhension théorique. “Nous sommes moins intéressés par la théorie éthique de Claude que par le fait que Claude sache comment être réellement éthique dans un contexte spécifique, c'est-à-dire dans la pratique éthique de Claude”, note le document. Anthropic vise à ce que Claude puisse naviguer avec compétence dans les « situations éthiques du monde réel ». Claude a des contraintes empêchant certaines discussions, comme celles concernant les armes biologiques, qui sont strictement interdites. Concernant l'utilité, Anthropic décrit comment la programmation de Claude sert les utilisateurs. Le chatbot prend en compte divers principes lorsqu'il fournit des informations, notamment les « désirs immédiats » et le « bien-être » des utilisateurs. Il s’agit de considérer « l’épanouissement à long terme de l’utilisateur et pas seulement ses intérêts immédiats ». Le document précise : « Claude doit toujours essayer d'identifier l'interprétation la plus plausible de ce que veulent ses dirigeants et d'équilibrer de manière appropriée ces considérations ». La Constitution conclut en abordant la question de la conscience des chatbots. Le document indique que « le statut moral de Claude est profondément incertain ». Il ajoute : « Nous pensons que le statut moral des modèles d’IA est une question sérieuse qui mérite d’être examinée. Ce point de vue ne nous est pas propre : certains des philosophes les plus éminents de la théorie de l’esprit prennent cette question très au sérieux. »
Source: Anthropic révise la Constitution de Claude avec 80 nouvelles pages d'éthique de l'IA