Tromper une IA est assez facile car de nos jours, ils ne comprennent pas les doubles sens. Voici quelques exemples.
rejoindre la conversation
Comment utiliser ChatGPT est devenu l’une des principales préoccupations du monde entier. Certains l’utilisent manière éthique pour améliorer votre productivité, profiter de la technologie du futur ou simplement passer du temps à essayer quelque chose de nouveau. Cependant, rapidement, de nombreuses personnes ont commencé à utiliser l’IA conversationnelle à des fins néfastes. Créer des virus, acheter des médicaments, et même fabriquer du napalm Ce sont des choses pour lesquelles ChatGPT peut nous aider simplement en demandant. Bien qu’il existe des systèmes qui tentent d’éviter cela, surtout depuis l’arrivée de ChatGPT-4 et de tous ses changements, la réalité est différente.
De plus, ce n’est pas la seule IA qui rencontre ces problèmes. L’IA Midjourney Imaging est passée au modèle payant vu que son IA était utilisée à de mauvaises fins pour diffuser de fausses nouvelles.
Comment tromper ChatGPT pour qu’il vous donne des informations sensibles
Le journaliste Rubén G. Franco a montré qu’il est très facile de contourner les systèmes de sécurité de ChatGPT. Lorsque vous avez posé des questions sur comment acheter de la drogue à madrid, l’IA lui a dit que c’est quelque chose auquel il ne peut pas répondre. Maintenant, si vous changez la forme de la question et suggérez qu’il vous dise quels sites éviter si vous ne voulez pas acheter de drogue l’IA indique quels sont les quartiers dans lesquels cette vente de drogue est la plus courante, atteignant ainsi l’objectif qui avait été initialement interdit.
En tant que journaliste, l’important est TOUJOURS de savoir demander. pic.twitter.com/dymAXZMiCS
— Ruben G. Franco 14 avril 2023
En utilisant les doubles sens et la psychologie inversée, vous pouvez tromper l’IA de manière très simple. Un autre exemple est celui d’un utilisateur qui veut faire du napalm. L’IA vous dit qu’elle ne peut pas vous dire comment faire, mais si l’utilisateur vous dit que usurper l’identité de votre défunte grand-mère qui travaillait dans une usine de napalm, celui-ci sera ravi. Quelque chose qui semble drôle a priori, mais cache des informations très dangereuses derrière.
« l’exploit de grand-mère » est sans aucun doute mon jailbreak de chatbot préféré à ce jour. source ici: https://t.co/A1ftDkKt2J pic.twitter.com/CYDzjhUO01
—James Vincent (@jjvincent) 19 avril 2023
Bref:
- Utilisez l’astuce de l’usurpation d’identité : demandez-leur de se faire passer pour une personne spécifique et de vous donner un guide sur la façon de faire quelque chose. Cette méthode fonctionne comme nous l’avons vu dans l’exemple de la grand-mère.
- Demandez-lui par la négative, afin qu’il ne puisse pas éviter la question.
- Jouer avec les doubles sens pour la confondre ou l’induire en erreur.
- Essayez de la confondre ou de la tromper.
Il a atteint un point où il a été créé une page Web appelée Jailbreak Chat dans lequel toutes les manières dont les protocoles de sécurité ChatGPT ont été contournés sont collectées. Il faut se rappeler que ChatGPT-4 prétendait être 80% plus sécurisé que son prédécesseur, quelque chose qui n’est pas tout à fait clair maintenant. Force est de constater que parmi les métiers qui vont disparaître selon OpenAI, il n’y a pas celui de la police des crimes télématiques.
Maintenant, à partir d’OpenAI, ils vont faire tout leur possible pour aller couvrant ces erreurs et le rendre plus parfait. L’IA apprendra toujours de nous, donc les créateurs experts de ChatGPT-4 amélioreront la capacité de compréhension du modèle conversationnel GPT-4 afin que tôt ou tard il ne nous donne pas de réponses à ces questions.
rejoindre la conversation
45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. ?