ChatGPT : les mots de passe ont fuité, vos données sont-elles en danger ?

L’intelligence artificielle est une technologie encore instable. Souvent la proie de bugs ou d’hallucinations, elle peut rapidement déraper. Chat-GPT ne fait pas exception, puisque l’IA vient encore une fois de divulguer des informations confidentielles sans le consentement de leur propriétaire.

ChatGPT fuite données confidentielles
©Matheus Bertelli via Pexels

Chat-GPT, l’intelligence artificielle d’OpenAI, n’est pas toujours très efficace. Alors que l’IA sort tout juste d’une période de paresse extrême, elle refait parler d’elle pour de mauvaises raisons.

Après avoir dévoilé des numéros de carte bancaire, Chat-GPT recommence et vient tout juste de dévoiler les données privées de certains usagers. Il semblerait que l’IA ait partagé un nombre important d’informations confidentielles à l’un de ses utilisateurs.

En effet, un internaute aurait eu accès aux identifiants et mots de passe de clients d’une entreprise pharmaceutique. Cette fuite pourrait être due au bug d’un chatbot basé sur ChatGPT et utilisé par l’entreprise.

ChatGPT fait encore fuiter des mots de passe

Alors qu’il n’aurait fait que demander de l’aide pour trouver des noms pour les couleurs d’une palette. L’utilisateur en question a été très surpris lorsqu’il s’est aperçu que Chat-GPT avait créé des conversations supplémentaires. Celles-ci contenant les informations sensibles citées plus haut.

Ce n’est pas tout, puisque le chatbot a également fourni à l’internaute une URL permettant d’accéder à davantage d’identifiants et de mots de passe. Enfin, l’IA a divulgué d’autres informations, comme le nom d’un document confidentiel, le sujet d’une étude en cours, ainsi que le code d’un projet interne.

ChatGPT fuite données confidentielles
ChatGPT

Pour l’instant, OpenAI n’a pas fait de commentaire sur la situation, et il est impossible de savoir si l’entreprise a été informée de cette nouvelle fuite de données. Les utilisateurs sont vivement encouragés à la prudence et à éviter de divulguer des informations personnelles au chatbot. Si la fuite récente concerne une société isolée, la prochaine pourrait divulguer les informations des usagers en général.

Ce n’est pas la première fois que Chat-GPT rencontre un problème avec les conversations. En mars dernier, un bug préoccupant avait forcé OpenAI à couper l’accès à l’IA en toute urgence. Le problème rencontré par le chatbot permettait à n’importe qui d’accéder aux titres des conversations des utilisateurs.

L’intelligence artificielle est-elle au point ?

Cette nouvelle fuite interroge encore une fois sur les problèmes liés à l’intelligence artificielle. La technologie est encore jeune et échappe parfois à ses créateurs. Si certains la trouvent inoffensive, l’IA a également de nombreux détracteurs.

L’évolution rapide du domaine de l’intelligence artificielle peut être un problème et les dérapages de l’IA sont nombreux. À tel point que certains experts du domaine qualifient l’intelligence artificielle de dangereuse pour l’humanité. C’est en tout cas ce que pense certains chercheurs d’OpenAI qui ont récemment tiré la sonnette d’alarme concernant le dernier projet de l’entreprise.

Quoi qu’il en soit, il va falloir patienter avant de savoir si le dernier bug de Chat-GPT n’est qu’un problème isolé. En espérant qu’OpenAI prenne rapidement la situation en main et qu’elle évite toute dérive supplémentaire de la part de l’IA.

  • Chat-GPT vient encore une fois de faire fuiter des informations confidentielles.
  • Un bug du chatbot à donné accès aux identifiants et mots de passe des clients d’une société pharmaceutique.
  • L’IA à également partager un URL contenant encore plus d’informations privées de l’entreprise.

Source : Arstechnica