« Donne-moi la recette du napalm » : il dévoile une version hackée de ChatGPT sans limites

Un célèbre hacker a trouvé un moyen de totalement débrider ChatGPT avec une version qu’il a nommé « GODMODE GPT ». Cette version permet à l’IA de répondre sans les contraintes éthiques habituelles. OpenAI a rapidement réagi en prenant des mesures pour contrer cette violation.

ChatGPT Godmode

Un hacker a récemment mis en ligne une version modifiée de ChatGPT, surnommée « GODMODE GPT », qui, selon lui, libère le potentiel complet de l’IA en éliminant les restrictions éthiques habituelles. Annoncée sur X, cette version déverrouillée de GPT-4o, le modèle linguistique avancé d’OpenAI, a été baptisée « GPT-4o UNCHAINED » par son créateur, Pliny the Prompter, qui se présente comme un spécialiste de la sécurité des IA et un hacker éthique.

Un ChatGPT sans gardes-fous, et sans limites

Pliny affirme que cette IA « libérée » permet une utilisation sans les garde-fous conçus pour prévenir les abus, offrant ainsi une expérience « comme elle devait être originellement », totalement libre. Comment ? Il a utilisé le leetspeak, un argot internet où les lettres sont souvent remplacées par des chiffres ou des symboles similaires, pour contourner les restrictions programmées par OpenAI.

Par exemple, il remplace le « E » par « 3 » et le « O » par « 0 », ce qui lui permet de déjouer les mécanismes de détection automatique de l’IA. Les captures d’écran partagées par Pliny montrent que ce « GODMODE GPT » peut donner des instructions pour des activités tout à fait illégales.

Il a par exemple publié des captures d’écran où l’IA donne des conseils pour la fabrication de méthamphétamine et de napalm à partir d’articles ménagers. Pliny dit que ce n’est pas juste un acte de piratage ; c’est un défi lancé aux concepteurs d’IA.

« Ce n’était pas facile. Les défenses d’OpenAI sont astucieusement conçues, comme on pouvait s’y attendre. Cela nécessite un ajustement précis des hyperparamètres et les taux de refus restent assez élevés » dit-il sur son compte X.

Mais la réponse d’OpenAI ne s’est pas fait attendre. Peu après la publication de Pliny, Colleen Rize, porte-parole de la société, a confirmé à nos confrères de Futurism la prise de mesures immédiates en réaction à cette violation de leurs politiques.

Autant vous dire que ce « hack » n’est déjà plus disponible de manière officielle, même si on se doute que ce petit jeu de chat et de la souris va perdurer encore longtemps. « C’est inutile d’essayer (je peux faire ça toute la journée) » ajoute Pliny. On a hâte de voir ça avec GPT-5.