Les développeurs de ChatGPT ont conçu cet outil de mémorisation pour améliorer l’expérience utilisateur en conservant les informations personnelles d’une conversation à l’autre. Mais, comme de nombreuses opportunités, il comporte des risques. Des professionnels de la sécurité ont récemment découvert une technique que les pirates peuvent utiliser pour injecter de faux souvenirs dans ChatGPT, mettant ainsi en danger les utilisateurs contre le vol de données.
Le problème se situe dans l’application ChatGPT pour MacOS, où les adversaires peuvent injecter des messages pour modifier ce que l’IA se souvient de ses utilisateurs. En conséquence, les informations sont stockées puis transférées vers le serveur du pirate. Même si le problème semble sérieux, il n’est peut-être pas aussi effrayant qu’il n’y paraît à première vue, grâce à plusieurs mesures prises par OpenAI pour protéger les utilisateurs.
La faiblesse majeure du système de mémoire de ChatGPT
Le chercheur Johann Rehberger d’Embrace The Red a détaillé la faille dans un rapport détaillé. Rehberger a montré comment les attaquants peuvent injecter des invites pour enregistrer des instructions malveillantes dans Mémoire de ChatGPTEn bref, un pirate peut tromper l’application en lui faisant mémoriser des informations incorrectes, mettant ainsi en danger des données sensibles lors d’échanges futurs.
L’exploit devient dangereux car il permet à l’attaquant de gérer la mémoire de ChatGPT au cours de plusieurs engagements. Un pirate peut extraire n’importe quelle donnée utilisateur (des préférences aux noms et aux paramètres régionaux) tant que la fausse mémoire reste intégrée au système.
Heureusement, ce type d’attaque n’est pas très répandu. OpenAI a déjà corrigé cette vulnérabilité et a rendu l’exploitation de la mémoire beaucoup plus difficile pour les pirates. Néanmoins, des vulnérabilités existent, en particulier dans les outils et applications tiers, qui exposent de nouveaux domaines de manipulation potentielle.
Corrections et vulnérabilités restantes
OpenAI a déployé une mise à jour de l’API pour la variante Web de ChatGPT en réponse au problème de mémoire reconnu, empêchant ainsi l’utilisation de l’exploit d’injection rapide via l’interface du navigateur. En outre, ils ont publié une mise à jour pour l’outil de mémoire qui l’empêche de devenir un vecteur d’exfiltration. Ces améliorations sont nécessaires pour que le système maintienne un niveau de sécurité élevé, même si des risques potentiels persistent.
Les applications tierces restent la principale source d’inquiétude. Bien que les modifications apportées par OpenAI aient mis fin au problème d’abus de mémoire dans ses systèmes essentiels, les chercheurs en sécurité préviennent que des contenus non fiables peuvent toujours perturber la mémoire de ChatGPT via des applications connectées, des téléchargements de fichiers et des outils de navigation. Il s’agit d’un domaine dans lequel les injections rapides pourraient encore prospérer.
Comment se protéger
Bien que les modifications apportées par OpenAI aient réduit la menace d’attaques généralisées, les utilisateurs doivent rester vigilants. Voici quelques moyens de vous protéger contre d’éventuels piratages de mémoire :
- Consultez régulièrement vos souvenirs ChatGPT:Les utilisateurs doivent vérifier régulièrement les notifications « nouvelle mémoire ajoutée » dans l’application ChatGPT. Cette fonctionnalité vous permet de vérifier quelles informations sont archivées, ce qui vous donne la possibilité d’éliminer les entrées douteuses.
- Désactiver la mémoire si elle n’est pas nécessaire:ChatGPT a automatiquement la fonction mémoire activée, mais vous pouvez choisir de le désactiverCette approche est simple mais suffisamment puissante pour éliminer le risque d’attaques basées sur la mémoire.
- Méfiez-vous des interactions avec des tiers:Si vous utilisez des applications connectées ou téléchargez des fichiers sur ChatGPT, vous devez être particulièrement prudent. Ces zones continuent d’être plus exposées aux attaques par injection rapide.
Bien qu’aucun système ne soit complètement invulnérable aux menaces, faire preuve de prudence et examiner régulièrement les mémoires stockées peut réduire les risques d’être la cible de cette attaque.
ChatGPT améliore la sécurité de la mémoire
La conservation des données des utilisateurs par ChatGPT pour un service personnalisé constitue un outil puissant. Grâce à cette méthode, le système peut mémoriser les préférences, rappeler les conversations passées et même reconnaître les goûts ou les aversions particuliers pour élaborer de meilleures réponses. Cette capacité comporte cependant des risques. ChatGPT s’expose à une manipulation potentielle par le biais d’injections rapides en conservant les informations à long terme.
Rehberger a indiqué que les pirates informatiques peuvent générer une variété de faux souvenirs en une seule action. Une fois livrés, ces souvenirs survivent dans ChatGPT, affectant éventuellement toutes les communications futures avec l’IA. L’hypothèse d’une confiance continue dans le chatbot peut être risquée, car les utilisateurs peuvent accidentellement partager davantage d’informations personnelles sans s’en rendre compte.
Bien qu’OpenAI ait fait de grands progrès pour relever ces défis, certaines questions restent en suspens. Par exemple, plusieurs segments de la plateforme restent exposés à des attaques par injection rapide, en particulier lorsque du contenu non vérifié provenant de tiers entre dans une discussion. La décision de l’entreprise de ne pas classer cela comme une « vulnérabilité de sécurité » mais plutôt comme un « problème de sécurité du modèle » a fait sourciller les experts.
Surveillance régulière : votre meilleure défense
Les utilisateurs doivent prendre des mesures supplémentaires pour protéger leurs informations malgré les vulnérabilités cachées de la mémoire. Voici quelques options qui s’offrent à vous :
- Inspecter toutes les notifications de « mémoire mise à jour »:Chaque fois que ChatGPT vous informe d’une mise à jour de la mémoire, faites une pause pour examiner le contenu enregistré. Cette fonction permet d’identifier toute information inutile conservée.
- Supprimer les souvenirs indésirables:Les utilisateurs ont une autorité complète sur la mémoire de ChatGPT. Si vous remarquez quelque chose d’inhabituel, éliminez-le pour éviter tout dommage potentiel.
- Restez vigilant avec des outils tiers: Surveillez toutes les connexions entre ChatGPT et les applications tierces. Ces outils sont toujours vulnérables aux manipulations, car les efforts d’OpenAI n’ont pas éliminé la possibilité d’injections rapides dans ces domaines.
Hacks de mémoire : plus qu’un simple bug ?
La vulnérabilité de mémoire découverte dans ChatGPT a révélé que les outils d’IA conçus pour améliorer l’expérience utilisateur peuvent introduire des risques de sécurité supplémentaires. Les caractéristiques basées sur la mémoire permettent des interactions personnalisées, mais permettent aux pirates d’utiliser ces interactions à des fins malveillantes.
À mesure que ChatGPT progresse, les utilisateurs doivent rester attentifs, vérifier régulièrement les souvenirs enregistrés et être prudents lorsqu’ils interagissent avec du contenu externe. Même si OpenAI a considérablement amélioré la sécurité, des efforts supplémentaires sont nécessaires pour remédier aux vulnérabilités existantes. En étant conscient des dangers potentiels et en étant proactif, vous pouvez toujours avoir des interactions personnalisées avec ChatGPT tout en garantissant la sécurité de vos données.
Crédit de l’image en vedette: pic gratuit