ChatGPT : des employés kényans payés 2 dollars de l’heure dénoncent une « torture » psychologique

OpenAI est dénoncé dans une enquête du Time. Le créateur de ChatGPT a fait appel à un prestataire pour trier les informations sensibles. Sauf que les travailleurs kényans employés ont été sous-payés et exposés à des textes traumatisants. Ces derniers parlent d’une « torture » psychologique.

ChatGPT
ChatGPT © JAKUB PORZYCKI / NURPHOTO / NURPHOTO VIA AFP

ChatGPT fait sensation tout en faisant peur aux géants de la tech comme Google qui prépare sa riposte. Cette intelligence fondée par OpenAI fait preuve de capacités bluffantes. Sauf qu’un scandale pointe désormais le bout de son nez concernant cette technologie. La société aurait fait appel à des travailleurs kényans payés au lance-pierre pour améliorer son système selon le Time.

À lire > ChatGPT : une version encore plus performante de l’intelligence artificielle bientôt disponible

Des employés sous-payés et traumatisés

Des travailleurs kényans qualifient leur travail pour OpenAI comme « de la torture ». Ces employés ont bossé pour la société via le prestataire Sama pour rendre ChatGPT moins toxique. On parle de salariés payés une misère et des conditions de travail compliquées. Le travail des travailleurs kényans ? Trier les informations pour réduire le risque de réponses discriminantes, haineuses, etc.

Malgré son contrat de 200 000 dollars avec OpenAI, Sama a payé entre 1,32 et 2 dollars de l’heure ses employés qui ont dû trier du contenu choquant. On parle notamment d’abus sexuels. Pourtant, le contrat entre OpenAI et Sama stipule que les employés sont payés 12,50 dollars de l’heure. Ce qui n’a pas été versé selon l’enquête du Time.

Les employés kényans s’estiment traumatisés par le contenu lu pendant des jours entiers. Certains parlent de textes violents à propos d’abus sexuels.

OpenAI répond à l’enquête du Time

Face à cette enquête, OpenAI se déresponsabilise et pointe Sama du doigt. Selon l’entreprise à qui l’on doit ChatGPT, son prestataire est seul responsable du salaire et du confort de ses employés. L’entreprise s’est fendue d’une réponse dans laquelle on peut lire qu’elle prend « très sérieusement la santé mentale des employés et des prestataires » mais précise que les travailleurs sont « spécifiquement formés ». Pas suffisamment si l’on en croit les Kényans qui parlent d’une « torture ».

En plus du tri effectué pour ChatGPT, OpenIA a eu recours à Sama pour son outil Dall-E qui génère des images.