Le programme Bug Bounty d’OpenAI, qui a été lancé mardi, récompensera les utilisateurs en fonction de la gravité des défauts qu’ils divulguent, avec des récompenses commençant à 200 $ par vulnérabilité.
- OpenAI a lancé un programme de primes de bogues pour encourager les pirates éthiques, les chercheurs en sécurité et les passionnés de technologie à identifier et à signaler les vulnérabilités de ses services d’IA.
- Le programme bug bounty est en collaboration avec Bugcrowd et comprend des récompenses allant de 200 $ pour 20 000 $ en fonction de la gravité du problème.
- Les participants doivent suivre des règles et des directives spécifiques, notamment s’abstenir de violer la vie privée, de perturber les systèmes ou de détruire des données.
- Le programme de primes de bogues est crucial pour la mission d’OpenAI de créer une IA sûre et avancée, et ils offrent également une protection, une coopération, une remédiation et une reconnaissance pour les recherches sur les vulnérabilités menées conformément à leur politique et à leurs règles d’engagement.
Qu’est-ce que le programme Bug Bounty d’OpenAI ?
Pour découvrir les failles de ChatGPT, OpenAI fait appel au public, établissant un «Programme Bug Bounty” pour indemniser ceux qui soumettent des failles de sécurité, des vulnérabilités ou d’autres problèmes à l’intérieur du système d’IA.
Le prix est accessible à tous, des vrais chercheurs aux gens ordinaires qui aiment expérimenter la technologie. Les récompenses comprennent de l’argent, avec “découvertes de faible gravité» à partir de 200 $ et les « découvertes exceptionnelles » allant jusqu’à 20 000 $. Les soumissions et les récompenses sont gérées par Foule d’insectesune plateforme de bug bounty.
Des pépins ont tourmenté ChatGPT ; le mois dernier, l’ensemble du site est tombé après que les utilisateurs ont signalé avoir vu des noms de chats auxquels ils n’étaient pas participants. Quelques jours plus tard, un utilisateur de Twitter a déclaré avoir découvert plus de 80 plugins cachés lors du piratage de ChatGPT.
Ce matin, je piratais la nouvelle API ChatGPT et j’ai trouvé quelque chose de super intéressant : il existe plus de 80 plugins secrets qui peuvent être révélés en supprimant un paramètre spécifique d’un appel API.
Les plugins secrets incluent un "plug-in DAN", "Plugin des prix cryptographiques"et beaucoup plus. pic.twitter.com/Q6JO1VLz5x
— 𝚛𝚎𝚣𝟶 (@rez0__) 24 mars 2023
Tous les défauts signalés à OpenAI n’entraîneront pas une récompense monétaire, comme jailbreak ou convaincre le modèle de parler ou de donner l’impression de dire quelque chose de méchant.
Quelles sont les directives du programme Bug Bounty d’OpenAI ?
Pour rejoindre le programme, certaines règles et directives doivent être suivies :
- Les règles incluent le signalement rapide des vulnérabilités, ne pas violer la vie privée ou perturber les systèmesen utilisant le programme Bugcrowd pour la communication, en gardant confidentiels les détails des vulnérabilités et en ne testant que les systèmes concernés.
- La société refuse également la sphère de sécurité pour la divulgation de vulnérabilités effectuée sous la contrainte.
Le programme de primes de bogues d’OpenAI ne fournit pas d’incitations pour les défauts du modèle
La société a déclaré dans les lignes directrices détaillées pour la participation que les problèmes liés à la substance des modèles d’invites et de réponses sont «strictement hors champ” et ne serait pas récompensé. Les jailbreaks et faire dire ou faire des choses horribles aux modèles sont des exemples de difficultés omises.
Le jailbreak est le processus de modification d’un système pour contourner ses restrictions, ce qui peut entraîner des contenus non filtrés sur ChatGPT. Les jailbreakers ont fait jaillir des obscénités et des mots désagréables sur GPT-3.5 plus tôt cette année en lui donnant le travail d’un modèle d’IA différent avec la phrase Do Anything Now ou DAN.
“Bien que nous travaillions dur pour prévenir les risques, nous ne pouvons pas prédire comment les gens utiliseront ou abuseront quotidiennement de notre technologie dans le monde réel”, indique la page, recommandant aux clients de remplir un formulaire de commentaires séparé pour exprimer leurs problèmes.
En réponse à un message posté par Alex Albert, un passionné d’invite de jailbreak de 22 ans, Greg Brockman, co-fondateur et PDG d’OpenAIa suggéré sur Twitter en mars qu’il prévoyait de lancer le programme de primes de bogues d’OpenAI ou un réseau de red teamers.
La démocratisation des équipes rouges est l’une des raisons pour lesquelles nous déployons ces modèles. Anticiper qu’au fil du temps, les enjeux augmenteront * beaucoup * au fil du temps, et disposer de modèles résistants à une forte pression contradictoire sera essentiel. Envisagez également de lancer un programme de primes / un réseau d’équipes rouges ! https://t.co/9QfmXQi9iM
—Greg Brockman (@gdb) 16 mars 2023
La raison
L’action est intervenue quelques jours seulement après l’interdiction de ChatGPT en Italie pour avoir prétendument violé les normes de confidentialité, poussant les autorités d’autres pays européens à mener davantage de recherches sur les services d’IA générative.
ChatGPT a certainement conquis le monde ces derniers mois, passant un test de niveau MBA à Whartonen écrivant un post pour Techbriefly, et même en faisant semblant d’être aveugle pour persuader un humain de résoudre un captcha.
Les progrès rapides et l’efficacité de l’IA ont préoccupé certains experts, à tel point que 500 ingénieurs de premier plan (dont Elon Musk) ont appelé à un arrêt de l’IA sur des systèmes plus puissants, citant des périls possibles dans un avenir incertain pour la technologie.
Voulez-vous découvrir comment ChatGPT a réussi à réussir un examen MBA ? Pour en savoir plus, rendez-vous sur :
Source: Le programme Bug Bounty d’OpenAI offre des récompenses allant jusqu’à 20 000 $