Il y a quelque semaines, Samsung a autorisé ses employés à utiliser ChatGPT pour optimiser certains processus liés aux semi-conducteurs. Problème, des données sensibles ont été révélés, nourrissant le chatbot qui peut désormais les recracher aux autres utilisateurs.
ChatGPT est un outil bluffant qui peut vous aider dans de multiples situations. Ses capacités rédactionnelles et son esprit de synthèse sont notamment très appréciés dans le monde du travail. Certains n’hésitent d’ailleurs pas à dévoiler des informations sensibles sur leur entreprise lorsqu’ils utilisent ChatGPT. Une pratique risquée. Car pour se perfectionner, le chatbot se nourrit des échanges que vous avez avec lui.
Les données confidentielles sur votre boîte seront ainsi susceptibles d’apparaître plus tard au détour d’une conversation avec un autre usager. Illustration chez Samsung. Depuis quelques semaines, certains employés du géant sud-coréen peuvent utiliser ChatGPT pour optimiser certains processus. Mais comme le rapporte DigiTimes, des données sensibles sur les semi-conducteurs ont été exposées sur l’agent conversationnel à cette occasion.
À lire > Samsung va investir 230 milliards de dollars pour construire la plus grande usine de puces au monde
Samsung : des données sensibles sur le semi-conducteurs fuitent sur ChatGPT
Confronté à un problème dans la base de données de mesure des semi-conducteurs, un employé a saisi le code source dans ChatGPT pour trouver des solutions. Un autre collaborateur a saisi des lignes de code dans ChatGPT afin de comprendre le taux de rendement de l’équipement. Un troisième employé a demandé au chatbot de pondre un compte-rendu de réunion. Autant de données que ChatGPT peut désormais révéler aux autres utilisateurs.
En réaction, Samsung a rappelé aux employé qu’il fallait manier le chatbot avec précaution. Pour éviter d’autres fuites compromettantes, le fabricant a limité la capacité de chaque entrée dans ChatGPT à un maximum de 1024 octets. Si d’autres incidents se produisent à l’avenir, Samsung pourrait se résoudre à bannir le chatbot. Le constructeur envisagerait d’ailleurs de développer en interne son propre outil.
Vous l’aurez compris, il faut éviter à tout prix de révéler des informations trop sensibles à l’IA d’OpenAI. D’une part, les données sont stockées par le chatbot. D’autre part, il peut être victime de bugs ou être visé par des attaques informatiques. Il y a quelques jours, ChatGPT a dévoilé des numéros de carte bleue et d’autres infos sensibles à cause d’un dysfonctionnement majeur.