ChatGPT : fini la triche, OpenAI veut imposer une technologie pour savoir qui a utilisé l’IA

Mauvaise nouvelle pour ceux qui trichent avec ChatGPT. OpenAI pourrait bientôt injecter une technologie capable de détecter les textes générés par l’IA avec une grande précision. Bien que prête, cette innovation soulève des questions majeures sur son impact potentiel sur les étudiants et l’éthique académique. Pourquoi cette hésitation ?

Triche ChatGPT
Un filigrane pour ChatGPT ? © Envato

D’après un récent article du Wall Street Journal, OpenAI aurait développé un outil capable de détecter les textes rédigés par ChatGPT avec une précision impressionnante. Mais malgré sa disponibilité, cet outil n’a pas encore été mis à la disposition du public. Qu’est-ce qui retient OpenAI de faire ce pas décisif ?

OpenAI réfléchit à mettre un filigrane sur les textes rédigés par ChatGPT

La watermarking, ou filigrane numérique, est l’une des pistes explorées par OpenAI. Il s’agit d’un procédé discret mais puissant, qui intègre des marqueurs invisibles dans les textes générés par l’IA. Ces marqueurs permettent de déterminer l’origine des écrits, comme une signature cachée. Mais ce n’est pas si simple : la watermarking a montré ses limites face à des astuces comme la traduction, la reformulation par d’autres IA, ou même l’ajout et la suppression de caractères spéciaux.

L’un des principaux champs d’application de cette technologie est le milieu académique, où la triche est en forte augmentation. Pour de nombreux étudiants, ChatGPT est devenu un outil accessible et efficace pour rédiger des essais et des travaux scolaires. On repense à ce lycéen, accusé d’avoir utilisé ChatGPT pour compléter sa copie lors du baccalauréat de philo. Mais la possibilité que leurs travaux puissent être identifiés comme générés par une IA change la donne.

Pour les établissements éducatifs, cet outil représenterait une arme précieuse contre la tricherie. Il pourrait potentiellement dissuader les étudiants de soumettre des travaux qu’ils n’ont pas rédigés eux-mêmes, encourageant ainsi un retour à une certaine authenticité académique. Mais cela pourrait également avoir un impact négatif sur ceux qui utilisent l’IA de manière « éthique », notamment les étudiants non-anglophones qui s’en servent pour améliorer leur maîtrise de la langue.

La question éthique est donc au cœur de ce débat : comment s’assurer que la technologie ne devienne pas un outil d’exclusion ?

chatgpt compte application IA
© Envato

OpenAI marche sur une ligne fine entre innovation et responsabilité — d’un côté, l’entreprise veut offrir des solutions pour contrer l’utilisation abusive de l’IA dans les milieux éducatifs, où la triche pourrait devenir monnaie courante. De l’autre, elle doit veiller à ne pas porter préjudice aux usagers légitimes de ses outils.

L’entreprise a également choisi de se concentrer en priorité sur l’authentification du contenu audiovisuel, ce qui laisse entendre que la gestion des textes n’est qu’une partie du défi. L’entreprise cherche une approche réfléchie en raison des implications vastes et complexes que ce type de technologie pourrait avoir sur l’écosystème numérique global.