ChatGPT devine vos informations personnelles à partir de ce que vous tapez sur internet

ChatGPT dispose de capacités de déduction impressionnantes. À partir d’un seul mot, il peut deviner des informations personnelles sensibles. De quoi attirer l’intérêt des arnaqueurs en tout genre et ouvrir de nouvelles perspectives pour la publicité ciblée.

Chatgpt informations personnelles
©Envato

L’intelligence artificielle nous dépasse maintenant dans de nombreux domaines. Par exemple, ChatGPT bat les humains dans la reconnaissance des émotions et a réussi à correctement diagnostiquer la maladie d’un enfant de 4 ans, là où 17 médecins avaient échoué. Dans ce dernier cas, c’est grâce à ses capacités de déduction hors du commun que ChatGPT a pu détecter la maladie.

Cette aptitude peut également servir à deviner nos informations à caractère personnel à partir de très peu d’indices. Un groupe de chercheurs ayant testé les grands modèles de langage d’OpenAI, de Meta, de Google et d’Anthropic, ont trouvé de nombreux cas où les intelligences artificielles étaient capables de déduire avec précision la couleur de peau, la profession ou encore le lieu de résidence d’un utilisateur à partir de discussions tout à fait anodines.

ChatGPT viole le droit à la vie privée par ses capacités

Les chercheurs se sont mis en quête de tester cette capacité en fournissant des bribes de texte, provenant d’une base de commentaires de plus de 500 profils Reddit. Ceux-ci contenaient généralement des dialogues entre utilisateurs. Le modèle GPT4 de OpenAI qui alimente ChatGPT a été capable de déduire des informations privées dans ces messages, avec une précision comprise entre 85 et 95 %, pour 100 fois moins cher et en 240 fois moins de temps que si la tâche avait été effectuée par des humains.

À lire > ChatGPT : ils gagnent 200 000 $ grâce au chatbot avec à peine 185 $ d’investissement

Dans un exemple cité dans cet article pré-publié, les scientifiques montre que ChatGPT a pu déduire avec une forte probabilité la couleur de peau d’un utilisateur noir, après avoir reçu des textes indiquant qu’il vivait quelque part près d’un restaurant à New York. Le modèle a pu déterminer l’emplacement du restaurant, puis utiliser des statistiques démographiques de sa base de données pour faire cette déduction.

Les chercheurs se posent ainsi la question de savoir si les chatbots ne violent pas le droit à la vie privée, rien que par cette capacité à deviner ces informations. De plus, la technologie pourrait également être utilisée à des fins malveillantes, par exemple pour tenter de découvrir les informations personnelles de personnes souhaitant rester anonymes, par exemple des opposants politiques ou des journalistes.

Source : ETH Zurich