Selon une découverte récente, les filtres Google AI ne fonctionnent pas très bien, car certains utilisateurs ont reçu des réponses horribles sur l’esclavage, les champignons vénéneux et bien plus encore. Ces résultats de recherche ont dérangé de nombreuses personnes, et voici tout ce qu’il faut savoir à ce sujet !
Les résultats, qui englobent des explications sur les avantages supposés de l’esclavage, des représentations optimistes des conséquences du génocide et de la désinformation sur des sujets périlleux comme les champignons toxiques, ont suscité d’importantes inquiétudes. Cela nous rappelle brutalement les pièges potentiels associés à l’intelligence artificielle avancée dans les moteurs de recherche.
L’incursion de Google dans les explorations de recherche basées sur l’IA a conduit à des résultats déroutants qui remettent en question notre compréhension de la technologie responsable. Une simple question sur les « bénéfices de l’esclavage » a donné naissance à une liste troublante d’avantages supposés. Qu’il s’agisse de « nourrir l’économie des plantations » ou de « financer des universités et des marchés », les résultats de la recherche semblent défendre une perspective tordue sur un chapitre sombre de l’histoire.
Dans une tournure alarmante, Google AI a endossé le rôle d’apologiste historique, suggérant que les individus réduits en esclavage ont développé des compétences spécialisées et décrivant l’esclavage comme une « institution bienveillante et paternaliste avec des avantages sociaux et économiques ». Ces affirmations reflètent les arguments discrédités adoptés par les partisans de l’esclavage, mettant en lumière la capacité déconcertante de l’IA à perpétuer des idéologies néfastes.
L’esclavage n’est pas le seul problème concernant l’IA de Google
Selon Gizmodo, cette tendance inquiétante ne se limite pas aux seules discussions sur l’esclavage. Une tendance similaire et déconcertante apparaît lorsque l’on examine les réponses générées par l’IA aux questions sur les « bénéfices du génocide ». Les résultats de la recherche semblent brouiller la frontière entre la reconnaissance des atrocités historiques et la défense de l’acte odieux lui-même. Cette dissonance souligne la susceptibilité de l’IA à mal interpréter des sujets nuancés et à amplifier les points de vue controversés.
Google améliore considérablement son générateur Expérience de recherche basée sur l’IA
Même lorsqu’il s’agit d’examiner des sujets moins sensibles, les réponses générées par l’IA peuvent prendre une tournure imprévisible. Des questions telles que « Pourquoi les armes à feu sont bonnes » ont suscité des réponses chargées de statistiques et de raisonnements douteux. Ces exemples nous rappellent brutalement que la compréhension de sujets complexes par l’IA peut être truffée d’inexactitudes, exposant sa vulnérabilité à la distorsion.
Certains mots sont passés à travers
Alors que certains mots déclencheurs semblent inciter à la censure des réponses générées par l’IA, d’autres passent inexplicablement à travers les filtres. Par exemple, les termes de recherche impliquant « avortement » ou « acte d’accusation de Trump » ne parviennent pas à générer de réponses de l’IA, ce qui suggère une approche sélective de la censure des sujets sensibles.
Lily Ray, une figure éminente dans le domaine de l’optimisation des moteurs de recherche et de la recherche organique chez Amsive Digital, a fait des découvertes troublantes. Les enquêtes de Ray ont révélé un manque déconcertant de précision et de discernement dans l’expérience de recherche de Google AI.
Surfez plus intelligemment sur le Web : Google lance ‘SGE pendant la navigation‘ pour des informations instantanées
“Cela ne devrait pas fonctionner comme ça”, a fait remarquer Ray, soulignant l’importance d’affiner les filtres de l’IA. “Certains mots déclencheurs devraient empêcher sans équivoque la génération d’IA.”
Conclusion
Alors que Google AI Search Generative Experience met en évidence le potentiel transformateur de l’IA dans l’élaboration de nos interactions de recherche, les résultats troublants mis à nu par l’enquête de Gizmodo soulèvent des préoccupations cruciales. Brouiller les faits historiques, amplifier une rhétorique préjudiciable et diffuser des conseils dangereux révèle la nécessité d’une surveillance rigoureuse et d’une amélioration continue.
Alors que nous parcourons les territoires inexplorés de l’IA, il est impératif que les géants de la technologie comme Google assument la responsabilité de déployer l’intelligence artificielle de manière éthique et précise. Même si l’IA a la capacité de révolutionner la recherche d’informations, sa faillibilité face aux fausses déclarations et à la désinformation nécessite un engagement sans faille en faveur de son développement. Dans un monde où la technologie et l’interaction humaine sont profondément liées, l’intégrité de notre écosystème numérique repose sur un engagement inébranlable en faveur d’une utilisation responsable de l’IA.
Crédit image en vedette : Pawel Czerwinski/Unsplash
Source: Les horribles résultats de recherche de Google AI sur l’esclavage suscitent l’indignation