Anthropic a annoncé dimanche une nouvelle suite de fonctionnalités de soins de santé et de sciences de la vie pour sa plateforme d'intelligence artificielle Claude. Les fonctionnalités permettent aux utilisateurs de partager l'accès à leurs dossiers de santé et aux données de leurs applications de fitness, y compris à partir de l'application iOS Health d'Apple, afin de personnaliser les conversations liées à la santé. Le lancement a eu lieu quelques jours après que son rival OpenAI a présenté son outil ChatGPT Health. Les deux sociétés proposent désormais des outils qui intègrent les données personnelles de santé dans les interactions de l’IA. Les utilisateurs doivent s'inscrire sur une liste d'attente pour ChatGPT Health d'OpenAI, tandis que les fonctionnalités de soins de santé d'Anthropic sont immédiatement disponibles pour les abonnés aux forfaits Pro et Max aux États-Unis. Eric Kauderer-Abrams, responsable des sciences de la vie chez Anthropic, a décrit les nouvelles fonctions de Claude for Healthcare lors d'une interview avec NBC News. “Lorsque vous parcourez les systèmes de santé et les situations sanitaires, vous avez souvent le sentiment d'être en quelque sorte seul et de relier toutes ces données provenant de toutes ces sources, des informations sur votre santé et vos dossiers médicaux, et vous êtes tout le temps au téléphone”, a-t-il déclaré. “Je suis vraiment excité à l'idée d'arriver dans un monde où Claude peut s'occuper de tout ça.” Il a ajouté que les outils permettent aux utilisateurs « d’intégrer toutes vos informations personnelles avec vos dossiers médicaux et vos dossiers d’assurance, d’avoir Claude comme orchestrateur et de pouvoir naviguer dans tout cela et le simplifier pour vous ». Anthropic, l'une des plus grandes sociétés d'IA au monde et récemment évaluée à 350 milliards de dollars, positionne ces fonctionnalités comme des aides pour gérer des problèmes de santé complexes. OpenAI a déclaré que des centaines de millions de personnes posent chaque semaine des questions liées au bien-être ou à la santé sur ChatGPT. La société a souligné que ChatGPT Health n’est « pas destiné au diagnostic ou au traitement », mais aide plutôt les utilisateurs à « naviguer dans les questions quotidiennes et à comprendre les tendances au fil du temps – pas seulement les moments de maladie ». Les outils d'IA comme Claude et ChatGPT peuvent aider à comprendre les rapports médicaux, à vérifier les décisions des médecins et à résumer les informations pour les personnes n'ayant pas accès aux soins médicaux. Anthropic a souligné les mesures de confidentialité dans un article de blog. Les données de santé partagées avec Claude sont exclues de la mémoire du modèle et ne sont pas utilisées pour entraîner les futurs systèmes. Les utilisateurs peuvent se déconnecter ou modifier les autorisations à tout moment. L'entreprise a également introduit des outils destinés aux prestataires de soins de santé et élargi les offres de Claude for Life Science afin d'améliorer la découverte scientifique. Il s'agit notamment d'une infrastructure compatible HIPAA qui se connecte aux bases de données fédérales sur la couverture des soins de santé et au registre officiel des prestataires de soins médicaux. Les fonctionnalités visent à alléger la charge de travail en automatisant des tâches telles que la préparation des demandes d'autorisation préalable pour des soins spécialisés et la prise en charge des appels à l'assurance en faisant correspondre les directives cliniques aux dossiers des patients. Dhruv Parthasarathy, directeur de la technologie chez Commure, une société qui crée des solutions d'IA pour la documentation médicale, a déclaré dans un communiqué que les fonctionnalités de Claude aideront à « faire gagner aux cliniciens des millions d'heures par an et à se concentrer à nouveau sur les soins aux patients ». Ces annonces font suite à des mois d’examen minutieux des chatbots IA fournissant des conseils médicaux et en matière de santé mentale. Jeudi, Character.AI et Google ont convenu de régler un procès alléguant que leurs outils d'IA avaient contribué à aggraver la santé mentale des adolescents décédés par suicide. Anthropic, OpenAI et d'autres sociétés d'IA avertissent que leurs systèmes peuvent commettre des erreurs et ne doivent pas remplacer le jugement professionnel. La politique d'utilisation acceptable d'Anthropic stipule qu'« un professionnel qualifié… doit examiner le contenu ou la décision avant la diffusion ou la finalisation » lorsque Claude est utilisé pour « des décisions en matière de soins de santé, un diagnostic médical, des soins aux patients, une thérapie, une santé mentale ou d'autres conseils médicaux ». Kauderer-Abrams a noté : “Ces outils sont incroyablement puissants et pour de nombreuses personnes, ils peuvent vous faire gagner 90 % du temps que vous consacrez à quelque chose. Mais pour les cas d'utilisation critiques où chaque détail compte, vous devez absolument vérifier les informations. Nous ne prétendons pas que vous pouvez complètement retirer l'humain de la boucle. Nous le considérons comme un outil permettant d'amplifier ce que les experts humains peuvent faire.”
Source: Anthropic lance des fonctionnalités de santé pour Claude





