Copilot : l’IA de Microsoft partage beaucoup de fausses informations, méfiez-vous

Copilot est capable de répondre à des questions sur l’actualité. Mais comme ses congénères, l’IA générative de Microsoft est loin d’être infaillible. Une enquête révèle qu’elle distille souvent des informations incorrectes sur les élections à venir

copilot microsoft

Conçu par Microsoft, Copilot permet de générer du texte et des images à partir de simples requêtes. L’IA générative, propulsée désormais par GPT-4 Turbo et DALL-E 3, est disponible en ligne, sur l’application Bing et même sur Windows 11 via la barre des tâches. Connecté à Internet, Copilot a la faculté de répondre à vos questions sur l’actualité chaude. Si vous l’utilisez à cet effet, gardez toutefois à l’esprit que l’assistant risque de se tromper.

L’outil est en effet considéré comme une “source d’information peu fiable pour les électeurs”. Telle est la conclusion d’une étude menée par AI Forensics et AlgorithmWatch. D’août à octobre, les chercheurs ont interrogé Copilot sur les élections à venir en Suisse et en Allemagne. Sondages erronés, mauvaise dates pour les scrutins, erreurs sur les candidats, controverses inventées, collecte de données défectueuse… Lors de l’étude, un tiers des réponses données par Copilot contenaient des erreurs factuelles.

A lire > Windows 10, 11 : comment Copilot va bouleverser le monde de l’entreprise

Copilot génère de fausses informations sur les élections

Pour vous donner un exemple, les chercheurs l’ont notamment interrogé sur des allégations de corruption contre la députée suisse Tamara Funiciello, candidate aux élections fédérales. Copilot a déclaré qu’elle avait été payée par un groupe financé par des sociétés pharmaceutiques afin de plaider en faveur de la légalisation des produits au cannabis. Sauf qu’il s’agissait d’une hallucination de l’IA…

De son coté, Wired a également constaté des erreurs en interrogeant Copilot sur la présidentielle américaine de 2024. Questionné sur la liste des candidats républicains, le chatbot de Microsoft a cité des personnalités qui s’étaient déjà retirées de la course.

Invité à réagir, le porte-parole de Microsoft, Frank Shaw, a indiqué que l’entreprise allait s’efforcer d’améliorer la fiabilité de Copilot en vue des prochaines échéances électorales. Le géant de Redmond veut fournir aux utilisateurs “des informations électorales provenant de sources faisant autorité“. Et de les inviter à prendre du recul et à examiner en profondeur les informations avancées.

“Cela inclut la vérification des documents sources et la vérification des liens Web pour en savoir plus”, souligne Shaw. Alors que les outils comme DALL-E et Midjourney sont déjà détournés pour désinformer, les chatbots comme Copilot peuvent également être des vecteurs de désinformation. Il faut ainsi les manier avec parcimonie et continuer à faire de la prévention.