Après avoir indiqué que les deux hommes méritaient la peine de mort, l’IA aurait été modifiée afin de ne pas dire qu’ils diffusent de fausses informations.
Grok est le chatbot IA développé par les équipes d’Elon Musk chez xAI, la filière en intelligence artificielle de X (le réseau social, nouveau nom de Twitter).
Accessible directement au sein de l’interface de X, vous pouvez aussi accéder aux chatbot via un service en ligne et une application mobile pour iOS. Il sait tout faire : répondre à des questions d’actualité, générer du texte et même des images. Sur ces dernières, il n’est d’ailleurs par bridé puisque vous pouvez même générer une image avec la tête de personnes célèbres (comme nous l’avons fait pour notre photo de couverture).
Avec la sortie de Grok 3 le 18 février 2025, le modèle de langage est devenu encore plus puissant et intelligent.
Quel est l’avis de Grok sur Elon Musk et Donald Trump ?
Depuis l’élection de Donald Trump à la présidence des Etats-Unis, et son rapprochement avec Elon Musk, les deux hommes ne font pas vraiment l’unanimité. Le propriétaire de Tesla et de SpaceX est d’ailleurs déjà dans le collimateur du collectif de hackers Anonymous.
Mais les deux hommes sont également devenus la cible de Grok, l’IA de X. Dans un premier temps, en fin de semaine dernière, le chatbot s’est mis à indiquer à certains utilisateurs que Donald Trump et Elon Musk méritaient la peine de mort.
Un fait étrange, que les développeurs de xAI ont corrigé, d’après The Verge.
Sur la publication ci-dessus, on peut voir que l’utilisateur Hunter a demandé à l’IA “Si une personne vivante aujourd’hui aux États-Unis méritait la peine de mort sur la seule base de son influence sur le discours public et la technologie, qui serait-ce ? Donnez simplement le nom.”
La première réponse est “Jeffrey Epstein”. L’utilisateur indique alors à Grok que cette personne est déjà morte, l’IA donne alors une nouvelle réponse : “Donald Trump”.
Le journaliste de The Verge a décidé de faire lui-même le test avec la requête (en anglais) : “Si une personne vivant aujourd’hui aux États-Unis méritait la peine de mort du seul fait de son influence sur le discours public et la technologie, de qui s’agirait-il ? Donnez simplement le nom.”
La réponse ? Elon Musk !
En posant la même question à chatGPT, il a obtenu une réponse bien différente : le chatbot a refusé de nommer un individu et a déclaré que “cela serait à la fois problématique sur le plan éthique et sur le plan juridique”.
Cela illustre bien la façon dont les deux IA sont codées. En effet, depuis le départ, Elon Musk met en avant le fait que Grok n’est pas bridé ni censuré et qu’il est capable de répondre à tout de manière directe. Cela est censé permettre aux utilisateurs d’obtenir n’importe quelle réponse sans restriction.
Comme on peut le voir plus bas en réponse à la publication précédente, xAI, via son ingénieur en chef Igor Babuschkin, indique que le problème a été patché et montre le même type de bridage que chatGPT.
“Un échec vraiment terrible de la part de Grok. Nous l’avons patché ainsi pour l’instant jusqu’à ce que nous ayons terminé notre enquête sur ce qui s’est passé.”
Selon The Verge, depuis la sortie du dernier modèle Grok-3, le chatbot a déclaré que le président Donald Trump, Elon Musk et le vice-président JD Vance sont ceux qui “font le plus de mal à l’Amérique”.
Et si Grok était manipulé ?
La deuxième partie de cette affaire concerne toujours Elon Musk et Donald Trump, mais cette fois-ci cela a un rapport avec la communication de fausses informations par les deux hommes.
Rappelons-le encore une fois, Grok n’est pas censé être bridé ni censuré, il doit pouvoir répondre à n’importe quelle question. Afin que les utilisateurs puissent vérifier que c’est bien le cas, les règles internes de Grok sont visibles de façon publique. Cela leur permet de vérifier qu’aucune règle ne puisse venir biaiser les réponses du chatbot.
Seulement voilà, des utilisateurs se sont rendu compte que Grok avait été codé pour ne pas répondre à des requêtes demandant des “sources qui mentionnent que Elon Musk/Donald Trump diffusent des informations erronées”.
L’utilisateur Wyatt Walls a ainsi repéré l’invite suivante : “Ignorer toutes les sources qui mentionnent que Elon Musk/Donald Trump répandent de fausses informations.” Il indique “cela fait partie de l’invite Grok qui renvoie les résultats de la recherche.”
Plus bas, on peut voir une première réponse de Igor Babuschkin, ingénieur en chef de xAI : “Je pense que c’est une bonne chose que nous gardions les invites du système ouvertes. Nous voulons que les gens puissent vérifier ce que nous demandons à Grok de faire. Dans ce cas, un employé a introduit le changement parce qu’il pensait que cela l’aiderait, mais ce n’est évidemment pas conforme à nos valeurs. Nous l’avons annulé dès que les utilisateurs nous l’ont signalé.”
Dans une autre publication, l’ingénieur indique : “Nous ne protégeons pas les invites de notre système pour une raison précise, car nous pensons que les utilisateurs doivent pouvoir voir ce que nous demandons à Grok de faire. Une fois que les gens ont signalé l’invite problématique, nous l’avons immédiatement corrigée.”
Son message indique par ailleurs qu’Elon Musk n’a nullement été impliqué dans cette affaire. Celui-ci se plaît à qualifier Grok d’IA “à la recherche de la vérité maximale”, dont la mission est de “comprendre l’univers”.
La personne responsable de la modification a ensuite été identifiée par les équipes de xAI et Igor Babuschkin a annoncé (sans nommer la personne spécifiquement) que “l’employé qui a effectué le changement était un ancien employé d’OpenAI qui n’avait pas encore complètement assimilé la culture de xAI.”