Slack, la plateforme largement utilisée pour la communication sur le lieu de travail, utilise les données des utilisateurs pour améliorer ses capacités d’IA.
Les informations auxquelles l’IA accède incluent l’exploitation des messages, des fichiers et d’autres contenus générés par les utilisateurs pour améliorer des fonctionnalités telles que les recommandations de chaînes, la fonctionnalité de recherche, la saisie semi-automatique et les suggestions d’emoji.
Bien que ces améliorations visent à rationaliser l’expérience utilisateur, la pratique consistant à exploiter les données des utilisateurs a suscité des inquiétudes concernant la confidentialité et le consentement.
Décoder l’algorithme d’IA de Slack fait des données utilisateur l’ingrédient secret
L’utilisation des interactions des utilisateurs au sein de la plateforme est au cœur de la formation en IA de Slack. En analysant les modèles dans les messages, les fichiers et d’autres formes de communication, les modèles d’IA de Slack obtiennent des informations qui sont ensuite appliquées pour améliorer diverses fonctionnalités. Cette approche, bien qu’apparemment bénéfique pour améliorer l’expérience utilisateur, soulève des questions sur la mesure dans laquelle les données des utilisateurs sont consultées et sur la manière dont elles sont utilisées. Bien sûr, ce sont les réflexions de l’entreprise. Les utilisateurs sont très préoccupés par cette situation.
L’accès à ce contenu, qui peut inclure des messages privés, des informations sur l’entreprise ou des fichiers confidentiels, avec l’autorisation de l’intelligence artificielle de l’entreprise, commence à soulever des questions éthiques.
L’inclusion par défaut suscite un débat
L’un des aspects les plus controversés de la formation IA de Slack est l’inclusion par défaut de tous les utilisateurs. Cela signifie qu’à moins qu’un utilisateur ou une organisation ne se désengage spécifiquement, ses données sont automatiquement incluses dans le processus de formation. Cette pratique a suscité les critiques de ceux qui estiment que les utilisateurs devraient être informés et avoir le choix de participer à la collecte de données avant qu’elle ne commence.
Polémique dévoilée : reconnaissance et réponse de Slack
Le problème a pris de l’ampleur lorsque Corey Quinn, un cadre du groupe DuckBill, a publiquement critiqué la politique de Slack en matière d’IA. En réponse, Slack a confirmé utiliser le contenu des utilisateurs pour former certains de ses outils d’IA, tout en précisant que les données des clients ne sont pas utilisées pour former des outils d’IA payants. La société a également déclaré que les organisations ou les administrateurs d’espaces de travail peuvent demander la suppression de leurs messages et contenus de l’ensemble de données de formation, ce qui soulève des questions sur la raison pour laquelle une telle demande est nécessaire sur une plateforme pour laquelle les utilisateurs paient.
Les inquiétudes des utilisateurs se propagent sur les réseaux sociaux
La controverse s’est encore intensifiée plateforme de médias sociaux X, où de nombreux utilisateurs ont fait valoir que Slack aurait dû rendre la fonctionnalité de formation à l’IA facultative plutôt que le paramètre par défaut. Des inquiétudes ont été soulevées concernant l’utilisation abusive potentielle de messages privés, d’informations sur l’entreprise et de fichiers confidentiels, ainsi que sur l’absence d’un mécanisme de désinscription simple pour les utilisateurs individuels.
En réponse aux demandes de renseignements, un représentant de Slack a réitéré que les modèles d’IA de l’entreprise ne sont pas conçus pour apprendre, mémoriser ou reproduire les données des clients. Ils ont souligné que les clients peuvent exclure leurs données de la formation de ces modèles d’IA (non génératifs). Cependant, cette clarification n’a guère apaisé les inquiétudes des utilisateurs qui estiment que la communication initiale concernant l’utilisation des données était floue et potentiellement trompeuse.
Un récit déroutant : des déclarations incompatibles sur la politique en matière d’IA
Déclaration de Slack sur sa page d’intelligence artificielle : « Vos données sont vos données. Nous ne l’utilisons pas pour entraîner Slack AI », a ajouté à la confusion. Bien que l’entreprise précise que les outils d’IA productifs payants ne sont pas formés à l’aide des données des utilisateurs de Slack, la reconnaissance du fait que d’autres modèles d’IA sont formés à l’aide de telles données contredit l’idée selon laquelle les données des utilisateurs restent uniquement entre les mains des utilisateurs. Avocat Elizabeth Wharton a qualifié la décision de Slack de « gâchis en matière de confidentialité » et a critiqué le manque de solution de facilité pour les utilisateurs individuels.
La pratique de Slack consistant à utiliser les données des utilisateurs pour la formation en IA, bien que visant à améliorer les fonctionnalités de la plateforme, a suscité une controverse importante. L’inclusion par défaut des utilisateurs, le manque de communication claire et les implications potentielles en matière de confidentialité ont alimenté les débats sur le consentement, la transparence et l’utilisation éthique des données à l’ère numérique. Alors que l’IA continue de jouer un rôle de plus en plus important dans divers aspects de nos vies, la conversation autour des données des utilisateurs et de leur utilisation restera probablement un point central tant pour les consommateurs que pour les entreprises.
Crédit image en vedette : Stephen Phillips – Hostreviews.co.uk / Unsplash
Source: L’IA de Slack est alimentée par les données des utilisateurs