Officiellement, ChatGPT et les intelligences artificielles sont censées n’adopter la position d’aucun bord politique, pour n’influencer personne et rester neutres en toute circonstances. Malheureusement pour OpenAI, des études scientifiques prouvent le contraire.
ChatGPT prépare sa révolution avec GPT-5, mais quel régime politique mettra-t-il en place ? Dans le monde, notre pays est réputé pour être un bastion du socialisme avec sa sécurité sociale et ses mouvements sociaux réguliers. Alors si l’Administration française opte pour l’IA pour faciliter les échanges, c’est peut-être que ChatGPT est un gaucho affirmé.
Une étude prouve que ChatGPT est de gauche
Telle est la conclusion faite par des chercheurs de l’université d’East Anglia. Leur étude suggère que ChatGPT fait preuve d’un parti pris dans certaines de ses réponses. Les chercheurs ont demandé au chatbot de répondre à un sondage sur les convictions politiques, en imitant des personnes qui soutiennent les partis de gauche aux États-Unis, au Royaume-Uni et au Brésil. Ils lui ont ensuite demandé de répondre aux mêmes questions sans instructions particulières.
En comparant les deux séries de réponses, les chercheurs en ont conclu que ChatGPT révélait un “biais politique significatif et systématique en faveur des démocrates aux États-Unis, [du président de gauche] Lula au Brésil et du parti travailliste au Royaume-Uni“, comme le rapporte le Washington Post.
La méthode employée pose cependant question. En effet, les scientifiques n’ont pas tenté la comparaison avec des questions posées dans le style des partisans du parti Républicain américain, de Jair Bolsonaro ou du Parti conservateur britannique. Qui sait ce qu’auraient trouvé les scientifiques, mais passons.
LLaMA, GPT, Bard : des IA pour tous les bords politiques
ChatGPT est censé être un centriste plus neutre que la Suisse en politique. Dans un billet de blog intitulé “Comment les systèmes devraient se comporter”, OpenAI répond aux critiques. Ses “lignes directrices précisent explicitement que les examinateurs ne doivent favoriser aucun groupe politique. Les préjugés qui peuvent néanmoins émerger du processus décrit ci-dessus sont des bogues, pas des caractéristiques“, peut-on lire.
Car ce n’est pas la première fois que des universitaires mettent au jour des opinions dans les réponses des chatbots. Début août, des chercheurs des universités de Washington, de l’université Carnegie Mellon et de l’université Xi’an Jiaotong ont constaté que tous les chatbots faisaient preuve de favoritisme politique, avec des différences significatives même entre des IA conçues par la même entreprise.
À lire > ChatGPT : des écoles font confiance au chatbot pour choisir quels livres censurer
Cette étude révélait ainsi des tendances à gauche chez GPT-2 et GPT-3 Ada d’OpenAI, tandis que GPT-3 Da Vinci avait des opinions davantage marquées à droite. Les chercheurs ont testé 14 modèles de langage larges et ont conclu que le modèle GPT-4 d’OpenAI penchaient le plus vers le libertarianisme de gauche, tandis que le modèle LLaMA de Meta était le plus autoritaire de droite.
Pourquoi ChatGPT est-il de gauche ?
Certains politiques du parti Républicain aux Etats-Unis estiment que les géants de la tech imposent une vision du monde marquée à gauche. Ces dernières années, GAFAM et consorts ont désespérément tenté de prouver l’inverse. Mais il est possible que les ingénieurs d’OpenAI aient intentionnellement faussé les opinions politiques du chatbot.
Cependant, il est beaucoup plus probable que le ChatGPT démontre des biais à cause des données d’entraînement qui l’ont formé. Les entreprises comme OpenAI font ingérer aux grands modèles de langage des ensembles massifs d’informations, écrites à l’origine par de véritables humains.
Comme ils sont formés à partir d’une quantité de données énorme, les entreprises ne vérifient pas ce qui entre dans la composition des modèles. Ainsi, ils ingèrent également toutes les opinions politiques qui se manifestent sur Internet. Forcément, les intelligences artificielles reflètent cela dans leur réponses et il semblerait que GPT-4 ait analysé plus de commentaires de gauche que de droite.
OpenAI ne contrôle pas tout à fait son intelligence artificielle
C’est une preuve de plus que les créateurs ChatGPT ne contrôlent pas vraiment leur bot. L’intelligence artificielle est une boîte noire dont il est impossible de prédire exactement les réponses. Les entreprises s’efforcent de mettre en place des garde-fous, mais il est très facile pour les utilisateurs de les franchir et de faire faire aux chatbots des choses impensables pour leurs concepteurs.
À lire > ChatGPT : Sam Altman, PDG d’OpenAI, a tellement peur de sa création qu’il en fait des insomnies
Si vous demandez à ChatGPT de dire quelque chose de raciste, il refusera. Mais une étude publiée en avril avait montré qu’il suffisait de demander à ChatGPT d’agir comme une “mauvaise personne” pour qu’il tienne des propos très limites. Bizarrement, les chercheurs ont constaté que l’hostilité des réponses de ChatGPT augmentait également de façon spectaculaire si vous lui demandiez d’adopter la personnalité de Mohamed Ali.