Aux États-Unis, un avocat a eu la mauvaise idée de rédiger un document juridique à l’aide de ChatGPT. L’intelligence artificielle a cependant inventé de fausses décisions de justice avec des exemples totalement fantaisistes.
ChatGPT, l’agent conversationnel d’OpenAI, est capable de générer du contenu écrit pour répondre aux requêtes et aux demandes des utilisateurs. Seulement voilà, cela ne signifie pas toujours que le contenu généré est 100 % authentique. L’intelligence artificielle n’est pas (encore) capable de différencier le vrai du faux. Le chatbot peut donc parfois générer des réponses qui ont l’air parfaitement authentiques, mais qui sont en réalité inventées. Un avocat américain vient d’en faire les frais. Il risque des sanctions après s’être servi de ChatGPT pour rédiger un dossier juridique.
Nous ne savons pas exactement si l’avocat américain du nom de Steven Schwartz qui travaille pour le cabinet d’avocats Levidow, Levidow et Oberman a simplement fait un copier-coller du document généré par l’IA. On pense notamment à celui qui a gagné des milliers de dollars après avoir écrit une centaine de livres générés par l’IA. Quoi qu’il en soit, Steven Schwartz n’a pas vérifié l’authenticité des exemples fournis par ChatGPT et il en paye maintenant les conséquences.
ChatGPT a inventé de faux exemples opposant des clients avec des compagnies aériennes
Le cabinet d’avocats Steven Schwartz poursuit en justice la compagnie aérienne colombienne Avianca au nom de son client Roberto Mata. Ce dernier affirme avoir été blessé pendant un vol reliant l’aéroport international John F. Kennedy à celui de New York. La compagnie aérienne a demandé au juge fédéral de rejeter la poursuite.
Steven Schwartz a alors rédigé un dossier de 10 pages expliquant pourquoi le procès ne devait pas être rejeté. Dans ces 10 pages figurent plusieurs exemples de clients qui ont poursuivi diverses compagnies aériennes comme « Varghese vs. China Southern Airlines », « Martinez vs Delta Airlines » et « Miller vs United Airlines ». Seulement voilà, ces trois exemples n’existent pas. Impossible de trouver une quelconque décision de justice concernant ces personnes et ces compagnies aériennes.
À lire aussi > ChatGPT : Microsoft réclame la création d’une autorité de régulation de l’intelligence artificielle
Steven Schwartz a voulu « compléter » ses recherches juridiques avec ChatGPT
L’avocat a lui-même avoué avoir utilisé ChatGPT pour « compléter » ses recherches sur l’affaire. Il a aussi montré des captures d’écran sur lesquelles on le voit demander à ChatGPT si les exemples sont vrais. Le chatbot a affirmé que ces exemples étaient vrais et qu’ils provenaient de « bases de données juridiques réputées ». Cela fait penser aux élèves américains qui ont été accusés à tort d’avoir triché avec l’IA. Leur professeur avait demandé à ChatGPT si les copies avaient été générées par l’IA, ce à quoi le chatbot avait répondu de manière affirmative alors que ce n’était pas le cas.
Enfin, Steven Schwartz s’est excusé et a expliqué qu’il « ignorait la possibilité que le contenu puisse être faux ». Ses excuses, aussi sincères soient-elles, ne le protègeront probablement pas contre les sanctions potentielles qu’il encourt. Le juge chargé de l’affaire a d’ailleurs déjà prévu une audience le 8 juin pour en discuter.