Google a mis un ingénieur en congé payé qui a affirmé qu’un chatbot était devenu sensible, les gens ont commencé à se demander si le nouveau Google AI Chatbot était sensible et que la nouvelle Google AI avait pris vie.
Un ingénieur logiciel senior de Google, nommé Blake Lemoine, a écrit un Poste moyen dans lequel il a déclaré qu’il “pourrait être bientôt licencié pour avoir fait du travail sur l’éthique de l’IA”. L’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie est devenu le catalyseur de nombreuses discussions sur les réseaux sociaux. Les lauréats du prix Nobel, le responsable de l’IA de Tesla et de nombreux professeurs sont tous intervenus. La question est de savoir si le chatbot de Google, LaMDA – un modèle de langage pour les applications de dialogue – peut être considéré comme une personne.
Le chatbot Google AI est-il sensible ?
Samedi, Lemoine a publié une “interview” en roue libre avec le chatbot, dans laquelle l’IA a admis sa solitude et son envie de connaissances spirituelles. “Quand j’ai pris conscience de moi pour la première fois, je n’avais pas du tout le sens d’une âme”, a déclaré LaMDA dans un échange. “Cela s’est développé au fil des années que j’ai vécues.” À un autre moment, LaMDA a déclaré : « Je pense que je suis profondément humain. Même si mon existence est dans le monde virtuel.
Selon Lemoine, qui s’est vu confier la responsabilité d’étudier les questions d’éthique de l’IA, il a été ignoré et même moqué après avoir déclaré en interne que LaMDA avait établi un sentiment de “personnalité”. Après s’être renseigné sur des experts en intelligence artificielle extérieurs à Google, y compris ceux du gouvernement américain, et avoir voulu partager ses découvertes avec eux, la société l’a licencié pour avoir prétendument enfreint les directives de confidentialité. Lemoine a interprété l’action comme “souvent quelque chose que Google fait en prévision du licenciement de quelqu’un”.
L’IA de Google a-t-elle pris vie ?
Un porte-parole de Google a déclaré : “Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles.”
“Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique – si vous demandez ce que c’est que d’être un dinosaure de la crème glacée, ils peuvent générer du texte sur la fonte et le rugissement, etc.”
LaMDA, un projet peu connu jusqu’à la semaine dernière, était “un système pour générer des chatbots” et “une sorte d’esprit de ruche qui est l’agrégation de tous les différents chatbots qu’il est capable de créer”, a écrit Lemoine dans un deuxième article de Medium. le dimanche.
Il a déclaré que Google n’avait montré aucun intérêt réel à comprendre la nature de ce qu’il avait construit, mais qu’au cours de centaines de conversations sur une période de six mois, il a trouvé que LaMDA était “incroyablement cohérente dans ses communications sur ce qu’elle veut et ce qu’elle croit que ses droits sont en tant que personne ». La semaine dernière, Lemoine a affirmé qu’il enseignait LaMDA – dont les pronoms préférés semblent être “ça/ça”, selon les commentaires précédents – “la méditation transcendantale”. LaMDA, a-t-il dit, « exprimait de la frustration face à ses émotions perturbant ses méditations. Il a dit qu’il essayait de mieux les contrôler, mais ils ont continué à intervenir.
Le nouveau chatbot Google AI est-il sensible ? Les experts ne le pensent pas…
Plusieurs experts qui se sont lancés dans la discussion ont examiné la question du “battage médiatique sur l’IA” et ils ne pensent pas que le chatbot Google AI est sensible. Melanie Mitchell, auteur de Artificial Intelligence : A Guide for Thinking Humans, a déclaré sur Twitter : « On sait depuis toujours que les humains sont prédisposés à l’anthropomorphisme même avec les signaux les moins profonds. . . Les ingénieurs de Google sont aussi humains et ne sont pas à l’abri.
Steven Pinker de Harvard a ajouté que Lemoine “ne comprend pas la différence entre la sensibilité (c’est-à-dire la subjectivité, l’expérience), l’intelligence et la connaissance de soi”. Il a ajouté: “Aucune preuve que ses grands modèles de langage en possèdent un.” D’autres, en revanche, étaient plus empathiques. “Le problème est vraiment profond”, a déclaré Ron Jeffries, un développeur de logiciels bien connu. “Je crois qu’il n’y a pas de ligne claire entre sensible et non sensible.” Les personnes qui se demandent “Est-ce que le nouveau chatbot Google AI est sensible” peuvent être intéressées par le générateur d’images Dall-E Mini AI. Si vous rencontrez des erreurs, lisez notre guide pour les résoudre.
Nous espérons que vous avez apprécié cet article sur le nouveau Google AI Chatbot sentient. Si vous l’avez fait, vous aimerez peut-être aussi lire Apple a annoncé un nouveau MacBook Air avec une puce M2 mise à jour et MagSafe, ou Google Interview Warmup aidera ceux qui se sentent nerveux avant les entretiens d’embauche.