ChatGPT : la CNIL ouvre une enquête, l’IA risque-t-elle l’interdiction en France ?

Un député français a saisi la CNIL pour lui demander d’enquêter sur une potentielle violation du RGPD par ChatGPT. C’est la cinquième plainte déposée en France contre le chatbot, et l’UE s’intéresse aussi au sujet après l’interdiction par l’Italie de ChatGPT.

chatgpt CNIL interdiction france

Ça y est, les législateurs commencent à s’intéresser aux IA et à ChatGPT : ce n’est pas trop tôt. C’était précisément l’objet de l’appel d’Elon Musk, de Steve Wozniak et d’experts qui demandaient à mettre en pause les recherches, citant des “risques graves pour l’humanité”. Cette pause ne viendra donc pas des entreprises du secteur volontaires, mais plutôt des Etats qui les y contraindront. Bill Gates sera triste, lui qui estimait que la pause demandée par Elon Musk est inutile.

C’est d’Europe que vient le premier coup de semonce qui secoue OpenAI et ChatGPT, et plus particulièrement de notre pays, la France. Cocorico ! En effet, la CNIL vient de lancer une enquête pour instruire cinq plaintes déposées contre ChatGPT. L’une d’entre elle a été déposée par le député Renaissance de la cinquième circonscription des Côtes d’Armor, Eric Botherel.

Cinq plaintes déposées contre ChatGPT auprès de la CNIL

Le député a questionné lui-même ChatGPT pour lui demander d’obtenir sa biographie. Le bot a enchaîné les erreurs, affirmant faussement que le député avait travaillé pour Orange ou encore en lui indiquant une date de naissance erronée. Le deuxième essai de ChatGPT fut « pire » encore.

Eric Botherel a donc saisi la CNIL en affirmant que ChatGPT a violé le règlement Règlement Général sur la Protection des Données (RGPD) européen. En vertu de cette réglementation, le chatbot doit se plier à « des obligations de fournir des informations qui ne soient pas des informations erronées pour ceux qui font du traitement de données », explique Éric Bothorel, qui estime « normal de saisir l’autorité indépendante, la Cnil, pour éviter qu’il y ait une jurisprudence qui se crée sur Twitter ».

Ce n’est pas la première plainte donc fait l’objet ChatGPT en France, puisque deux autres plaintes publiques ont été déposées par l’avocate spécialisée en droit numérique Zoé Vilain et le développeur David Libeau, défenseur du open source. Les auteurs des deux autres saisines de la CNIL ne sont pas connus.

Outre cette enquête de la CNIL, c’est aussi le Comité européen de la protection des données (EDPB) qui s’intéresse à ChatGPT. Avec pour mission de coordonner les équivalents de la CNIL des pays membres de l’Union Européenne, l’EDPB souhaite une meilleure coopération pour contrer les IA. L’organisme a donc annoncé la création d’un « groupe de travail dédié » sur le sujet. L’organisme a pris cette décision après le blocage de ChatGPT en Italie à cause d’une faille de sécurité.

Réguler plutôt qu’interdire ChatGPT dans l’UE

Le député Eric Botherel n’est pas le premier à affirmer que ChatGPT ne respecte pas le RGPD. Début avril, Jean-Noël Barrot, le ministre délégué au Numérique, l’affirmait aussi. Il estimait néanmoins qu’il valait mieux « encadrer » le chatbot plutôt que l’interdire. C’est aussi la position d’Eric Botherel : « Je ne pense pas que la bonne réponse soit d’interdire ChatGPT », estimait le député de la majorité présidentielle au micro de France Info.

Invité de BFMTV ce jeudi 13 avril, Jean-Noël Barrot déclarait : « Après la vague d’enthousiasme des premiers jours succède une vague d’inquiétude et de critiques très fortes. » Le ministre estime qu’il faut donc « encadrer l’innovation pour qu’elle soit conforme aux principes auxquels nous sommes attachés », plutôt que de bloquer purement et simplement les IA comme l’Italie a pu le faire.

À lire : l’Intelligence Artificielle devrait rapidement se transformer en une vraie menace pour nos sociétés

Ainsi, le parlement européen travaillerait actuellement à la création d’un mécanisme contrôle du respect du RGPD, prévu pour une rentrée en vigueur prévue pour 2025. « Il y aura des usages pour lesquels l’IA sera interdite, comme la surveillance générale des populations ; des usages conditionnés à des obligations de transparence et d’audit, comme les transports et la santé, et des usages moins sensibles où l’IA sera librement utilisable », a expliqué le ministre.