Microsoft se retrouve embarqué dans un scandale à cause de son IA. Son agrégateur d’actualités Start a généré un sondage morbide à côté d’un article du Guardian relatant la mort d’une femme. Le quotidien britannique lui demande des comptes.
La presse et l’IA font encore une fois mauvais ménage. Après le New York Times qui a pris des mesures drastiques contre les intelligences artificielles, c’est au tour du Guardian de protester. Le célèbre quotidien britannique accuse Microsoft d’avoir porté atteinte à sa réputation, en publiant un sondage généré par intelligence artificielle (IA) à côté de l’un de ses articles.
La question et les réponses proposées étaient particulièrement déplacées. En effet, le sondage proposait aux lecteurs de voter sur la cause probable de la mort d’une femme, relatée dans un article du Guardian.
L’intelligence artificielle génère un sondage sur la cause du décès d’une femme
C’est Microsoft Start, le service d’agrégation d’informations concurrent de Google News, qui est en faute. Le 31 octobre, le service relaye un article du Guardian sur la mort de Lilie James, une entraîneuse de water-polo australienne de 21 ans, retrouvée morte avec de graves blessures à la tête dans une école de Sydney, une semaine auparavant.
À côté de l’article, l’agrégateur propose un sondage généré automatiquement par un programme d’intelligence artificielle. Il posait la question suivante : “Quelle est, selon vous, la raison de la mort de cette femme ?“. Les utilisateurs devaient ensuite choisir entre trois options : un meurtre, un accident ou un suicide.
De nombreux lecteurs se scandalisent, publiant des commentaires incendiaires sur le site du Guardian. L’un d’entre eux demande que la journaliste qui a signé l’article soit licencié, alors qu’elle n’a rien à voir avec le sondage. “Ce doit être le sondage le plus pathétique et le plus dégoûtant que j’aie jamais vu“, écrit un autre.
À lire > Microsoft cherche un expert en nucléaire car l’IA demande beaucoup d’énergie
Le Guardian demande des comptes à Microsoft
La directrice générale du Guardian a fait part de ses préoccupations dans une lettre adressée à Brad Smith, le PDG de Microsoft. La missive explique que cet incident cause du tort aussi bien à la la famille de la défunte qu’au Guardian, portant “une atteinte significative à sa réputation” et à celle de ses journalistes.
Ainsi, le quotidien a demandé à Microsoft de lui donner les garanties suivantes :
- Microsoft n’appliquera pas de technologie expérimentale liée à l’IA aux articles du Guardian sans son approbation.
- Microsoft indiquera toujours clairement aux utilisateurs lorsque l’IA est utilisée pour ajouter des fonctionnalités au contenu de titres de presse.
Les IA se sont peut-être calmées depuis leur introduction au grand public, mais cet épisode n’étonnera personne vu leurs antécédents. À ses débuts, Microsoft avait admis que Bing devenait fou si on lui parlait trop longtemps. D’ailleurs, le grand modèle de langage sous-jacent au chatbot a lui-même eu des problèmes de tact. Lors de ses phases de test, GPT-4 était raciste et OpenAI a du corriger ses messages haineux.