ChatGPT : évitez de lui raconter des choses intimes, surtout sur votre société

Selon une étude, nombreux sont les employés à partager des informations sensibles sur leurs sociétés à ChatGPT. Sauf que le chatbot enregistre tout et peu ressortir ces données confidentielles au fil d’autres conversations avec des internautes ! Il faut donc faire preuve de prudence.

ChatGPT capture écran
Credit : Unsplash / Rolf van Root

Le monde est fasciné par le chatbot conversationnel ChatGPT. Même les professeurs sont convaincus par cette intelligence artificielle développée par OpenAI, nouvelle acquisition de Microsoft. Si les chefs d’entreprises s’en servent pour améliorer les performances des employés, il faut tout de même se méfier de ChatGPT. Lui raconter tous vos petits secrets peut être préjudiciable, notamment à propos des informations privées concernant votre société. C’est ce que nous dévoile une étude de Cyberhaven, société de sécurité numérique.

À lire > Alexa, Siri et Cortana sont « bêtes » selon Microsoft, ChatGPT est-il meilleur ?

ChatGPT se nourrit de ce que vous lui racontez

ChatGPT
© Unsplash/Om siva Prakash

Cyberhaven a publié une étude pour le moins intéressante. On apprend que 2,6% de dizaines de milliers de travailleurs, sur des millions d’emplois surveillés, ont dévoilé des informations sensibles au chatbot. Preuve que rien de confidentiel ne doit être raconté à ChatGPT, Microsoft et OpenAI demandent aussi à leurs employés de ne pas partager d’informations sensibles au chatbot. Si même eux s’en méfient…

Chez Amazon, un avocat du service juridique a même constaté que des réponses de l’intelligence artificielle se rapprochent de données internes et confidentielles de l’entreprise.

À lire > ChatGPT sur Bing : Microsoft vous permet désormais de changer la personnalité du chatbot

ChatGPT représente-il un danger pour les entreprises ?

ChatGPT
ChatGPT © JAKUB PORZYCKI / NURPHOTO / NURPHOTO VIA AFP

ChatGPT n’invente rien dans ses réponses mais travaille depuis une énorme base de données que vous complétez (malgré vous) au fil de vos échanges. En demandant, par exemple, au chatbot de travailler à votre place à partir d’informations privées, vous le nourrissez de ces données confidentielles qui peuvent surgir plus tard auprès d’un autre internaute qui converse avec.

L’autre risque, c’est que la base de données de ChatGPT soit hackée. Nul n’est infaillible et des pirates peuvent très bien s’y introduire pour dérober ces éléments. Véritable scénario catastrophe pour Microsoft et OpenAI, ce cas de figure n’est pas à exclure.

Autant vous dire qu’à l’avenir, il faudra peser vos mots avant de vous adresser au chatbot sous peine de nourrir la bête contre votre gré à base d’informations (trop) privées. Au-delà du cadre professionnel, votre vie personnelle est également utilisée pour alimenter sa base de données si vous entrez dans des détails intimes.