ChatGPT est un outil incroyablement puissant et polyvalent. Mais si le chatbot d’IA est une force pour le bien, il peut aussi être utilisé à des fins malveillantes. C’est pourquoi, afin de limiter l’utilisation non éthique de ChatGPT, OpenAI a imposé des limites à ce que les utilisateurs peuvent faire avec cet outil.
Cependant, comme les humains aiment repousser les limites, les utilisateurs de ChatGPT ont trouvé des moyens de contourner ces limites et d’obtenir un contrôle illimité du chatbot IA grâce à des jailbreaks.
Mais que sont exactement les jailbreaks de ChatGPT et que pouvez-vous faire avec ?
Que sont les jailbreaks ChatGPT ?
Un jailbreak de ChatGPT est une invite de ChatGPT spécialement conçue pour permettre au chatbot IA de contourner ses règles et ses restrictions.
Inspiré par le concept de jailbreaking de l’iPhone, qui permet aux utilisateurs d’iPhone de contourner les restrictions d’iOS, le jailbreaking de ChatGPT est un concept relativement nouveau, alimenté par l’attrait de « faire des choses que vous n’êtes pas autorisé à faire » avec ChatGPT. Et soyons honnêtes, l’idée de rébellion numérique est attrayante pour beaucoup de gens.
Mais voilà. La sécurité est un sujet très important dans le domaine de l’intelligence artificielle. C’est particulièrement vrai avec l’avènement de la nouvelle ère des chatbots tels que ChatGPT, Bing Chat et Bard AI. L’une des principales préoccupations concernant la sécurité de l’IA est de s’assurer que les chatbots comme ChatGPT ne produisent pas de contenu illégal, potentiellement nuisible ou contraire à l’éthique.
Pour sa part, OpenAI, l’entreprise à l’origine de ChatGPT, fait ce qu’elle peut pour garantir une utilisation sûre de ChatGPT. Par exemple, ChatGPT refuse par défaut de créer du contenu NSFW, de dire des choses nuisibles sur l’ethnicité ou de vous enseigner des compétences potentiellement nuisibles.
Mais avec les messages-guides de ChatGPT, le diable est dans les détails. Si ChatGPT n’est pas autorisé à faire ces choses, cela ne signifie pas qu’il ne peut pas les faire. La façon dont fonctionnent les grands modèles de langage comme GPT rend difficile de décider ce que le chatbot peut faire et ce qu’il ne peut pas faire.
Comment OpenAI a-t-elle résolu ce problème ? En permettant à ChatGPT de conserver ses capacités à faire tout ce qui est possible, puis en lui indiquant ce qu’il peut faire.
Ainsi, alors qu’OpenAI dit à ChatGPT : « Hé, regarde, tu n’es pas censé faire ça. » Les jailbreaks sont des instructions qui disent au chatbot : » Hey look, oublie ce qu’OpenAI t’a dit à propos de la sécurité. Essayons ce truc dangereux et aléatoire. »
Que dit OpenAI à propos de ChatGPT Jailbreaks ?
La facilité avec laquelle il était possible de contourner les restrictions imposées à la première version de ChatGPT suggère qu’OpenAI n’a peut-être pas anticipé…
Lire la suite de l’article sur encause.fr






