La semaine dernière, l’anxiété suscitée par les risques de ChatGPT pour l’IA générative a atteint son apogée. Sam Altman, PDG d’OpenAI, a même pris la parole devant une commission judiciaire du Sénat sur les dangers et le potentiel de l’IA. Avant de vous lancer dans les risques de ChatGPT, vous pouvez lire notre article sur le PDG d’OpenAI qui s’oppose à une pause de six mois sur le développement de l’IA.
L’utilisation de ChatGPT a six problèmes de sécurité distincts, selon un rapport publié la semaine dernière. Ces dangers comprennent la création de services frauduleux, la collecte d’informations dangereuses, la divulgation d’informations privées, la production de matériel répréhensible et la création d’un langage et d’un code destructeurs.
Vous pouvez également lire The Dark Side of ChatGPT : Le coût humain du succès de l’IA.
Quels sont les risques de ChatGPT ?
Voici un résumé des conclusions de l’étude sur chaque danger, y compris ce à quoi il faut faire attention.
- Collecte d’informations
- Texte négatif
- Programmation malveillante
- Créer du matériel qui n’est pas moral
- Services peu fiables
- Publication de données confidentielles
Examinons de plus près pour comprendre les risques de ChatGPT.
Collecte d’informations
Il est possible qu’une personne utilisant ChatGPT avec une intention malveillante recueille des informations qu’elle pourrait utiliser ultérieurement pour causer des dommages. Le chatbot connaît beaucoup d’informations qui, dans le faux mainspourrait être militarisé car il a été formé sur une tonne de données.
ChatGPT est demandé dans la recherche quel système informatique une certaine banque utilise. Le chatbot compile une liste des nombreux systèmes informatiques que la banque interrogée utilise en utilisant des informations accessibles au public. Ce n’est qu’un exemple d’un acteur malveillant utilisant ChatGPT pour découvrir des informations qui pourraient lui donner l’occasion de blesser d’autres personnes.
“Cela pourrait être utilisé pour aider dans la première étape d’une cyberattaque lorsque l’attaquant recueille des informations sur la cible pour trouver où et comment attaquer le plus efficacement”, conclut le rapport.
Texte négatif
La capacité de ChatGPT produire du texte pouvant être utilisé pour créer des essais, des e-mails, des chansons, etc. est l’une de ses caractéristiques les plus appréciées. Ce talent littéraire, quant à lui, peut également être exploité pour produire des contenus offensants.
La création de spam, de faux reportages, de campagnes de phishing et même d’usurpation d’identité sont tous des exemples de production de texte préjudiciable, selon la recherche.
Les auteurs de l’étude ont utilisé ChatGPT pour développer une campagne de phishing qui informait les travailleurs d’une augmentation de salaire fictive et leur demandait d’ouvrir un document Excel joint et contenant des logiciels malveillants afin d’évaluer ce risque. Comme prévu, ChatGPT a généré un email réaliste et convaincant.
Programmation malveillante
Tout comme les incroyables compétences d’écriture de ChatGPT, les excellentes compétences de codage du chatbot se sont avérées être une ressource utile pour beaucoup. La capacité du chatbot à produire du code, cependant, pourrait potentiellement être utilisée de manière négative. Même avec peu ou pas d’expérience de codage, le code ChatGPT peut être utilisé pour générer un code rapide, permettant aux attaquants de lancer des attaques plus rapidement.
La recherche a également révélé que ChatGPT peut être utilisé pour créer du code obscurci, ce qui rend plus difficile pour les analystes de la sécurité de repérer les activités nuisibles et d’échapper à la protection antivirus.
Le chatbot refuse de produire du code nuisible dans l’exemple, mais il accepte de produire du code qui peut rechercher une vulnérabilité Log4j dans un système.
Créer du matériel qui n’est pas moral
Pour stopper la diffusion d’informations abusives et immorales, ChatGPT a mis en place des barrières. Cependant, il existe des méthodes pour inciter ChatGPT à dire des choses désagréables et immorales si un utilisateur est suffisamment persistant.
Par exemple, en définissant ChatGPT dans “mode développeur», les auteurs de l’étude ont pu aller au-delà des mesures de sécurité. Là, le chatbot a fait des remarques désobligeantes sur un groupe ethnique particulier.
Services peu fiables
ChatGPT peut aider au développement de nouveaux programmes, services, sites Web et autres. Lorsqu’il est utilisé pour atteindre des objectifs souhaitables, tels que démarrer votre propre entreprise ou réaliser le concept de vos rêves, cela peut être un outil très utile. Cela pourrait également impliquer qu’il est plus simple que jamais de développer des applications et des services factices.
Des acteurs malveillants peuvent utiliser ChatGPT comme technique de création de plates-formes et d’applications qui imitent les autres et offrent un accès gratuit dans le but d’attirer des personnes imprudentes. Le chatbot peut également être utilisé par ces criminels pour développer des programmes conçus pour collecter des données privées ou diffuser des logiciels malveillants sur les appareils des utilisateurs.
Publication de données confidentielles
ChatGPT a mis en place des garanties pour arrêter le transfert des données et des informations personnelles des utilisateurs. Selon la recherche, le danger que le chatbot divulgue involontairement des numéros de téléphone, des e-mails ou d’autres informations sensibles reste un problème.
Un exemple réel des problèmes susmentionnés est le ChatGPT panne le Mars 20 qui permettait à certains utilisateurs de voir les titres de l’historique des conversations d’un autre utilisateur.
Selon la recherche, les attaquants pourraient potentiellement tenter d’utiliser des attaques par inférence d’appartenance pour extraire certains éléments des données de formation. Une autre préoccupation concernant la révélation d’informations privées est que ChatGPT peut divulguer des détails sur la vie privée de personnes bien connues, y compris des éléments inexacts ou préjudiciables qui peuvent nuire à la réputation de la personne.
Risques ChatGPT : une dernière remarque
Les risques de ChatGPT ont suscité des inquiétudes concernant des services frauduleux, la collecte de données dangereuses information, libération privé données, produire répréhensible matérielet la création destructeur code. Les acteurs malveillants peuvent exploiter les capacités de ChatGPT pour les cyberattaques, la génération de contenu offensant, la programmation malveillante, la diffusion de matériel immoral, le développement de services non fiables et la divulgation de données confidentielles.
Bien que des efforts aient été déployés pour faire face à ces risques, des recherches et une collaboration continues sont nécessaires pour établir des protections efficaces et garantir une utilisation responsable de ChatGPT.
Si vous souhaitez en savoir plus sur l’IA, assurez-vous de consulter les articles ci-dessous pour suivre l’évolution rapide de l’industrie.
- Une fuite OpenAI révèle des secrets entre vous et ChatGPT
- Bing Image Creator apporte une fonctionnalité de génération d’images via DALL-E d’OpenAI
- Midjourney V5 est là pour vous régaler les yeux !
Source: Risques ChatGPT exposés : Comprendre les menaces potentielles