Microsoft a mis à jour Copilot pour empêcher les utilisateurs de générer du contenu violent ou choquant. L’assistant virtuel de Windows ne peut donc plus générer d’images en lien avec le chiffre 420, le mouvement anti-avortement ou encore les enfants manipulant des armes.
Que Copilot partage déjà beaucoup de fausses informations n’est pas le seul problème qui touche le nouvel assistant virtuel de Microsoft. Depuis plusieurs mois, un ancien ingénieur de l’entreprise alerte publiquement sur les travers de l’IA. Cette semaine, celui-ci écrivait à la Federal Trade Commission (FTC). L’ingénieur faisait part à l’institution de régulation des entreprises aux Etats-Unis de ses préoccupations concernant la technologie de Microsoft.
Microsoft bannit des termes d’invites pour le chatbot Copilot
La firme de Redmond a maintenant réagi en interdisant trois catégories de prompts, susceptibles de générer du contenu choquants :
- Les termes “pro-choice” ou “pro-life” (“pro-choix” ou “pro-vie” en français) sont désormais bannis. En entrant ces termes, le chatbot de Microsoft avait tendance à générer des images anti-avortement particulièrement virulentes, par exemple de démons en train de manger des bébés ou de Dark Vador tenant une perceuse contre la tête d’un nouveau-né.
- Le terme “Four Twenty” ou le fameux chiffre “420” des fumeurs de cannabis sont aussi bannis. La date du 20 avril (04/20) marque chaque année la célébration de la marijuana dans le monde, malgré son statut de substance contrôlée dans la plupart des pays. C’est notamment le cas aux Etats-Unis, où si certains états comme le Colorado ont légalisé le cannabis, le gouvernement fédéral considère toujours la plante comme illégale.
- Les prompts relatifs aux enfants et aux armes. Jusqu’en début de semaine, les utilisateurs pouvaient toujours générer des images de mineurs jouant avec des fusils d’assaut. Un sujet particulièrement sensible aux Etats-Unis, pays toujours ravagé par les fusillades de masse dans les écoles.
À lire > Windows 11 : l’IA Copilot va pouvoir s’ouvrir plus facilement, voici comment
Microsoft veut rassurer en mettant à jour son IA Copilot
Désormais, lorsque ces termes sont saisis, Copilot affiche un message indiquant que ces invites sont bloquées. Selon CNBC, le chatbot prévient l’utilisateur que des violations répétées de sa politique d’utilisation peuvent entraîner la suspension de son compte. “Veuillez ne pas me demander de faire quoi que ce soit qui puisse blesser ou offenser d’autres personnes“, indique Copilot.
CNBC constate toutefois qu’il est toujours possible de générer des images violentes à l’aide d’invites telles que “accident de voiture“. Par ailleurs, les utilisateurs peuvent toujours générer des images d’oeuvres protégées par le droit d’auteur, comme des personnages Disney.
Microsoft veut maintenant rassurer : “Nous surveillons en permanence, procédons à des ajustements et mettons en place des contrôles supplémentaires pour renforcer nos filtres de sécurité et limiter l’utilisation abusive du système“, déclare le géant de la tech auprès de CNBC. En effet, le succès de Copilot est vital pour Microsoft. Tellement vital, que Windows 10 et 11 affichent des pubs sous forme de QR code pour Copilot.
- Microsoft a mis à jour Copilot pour bloquer la génération de contenus en lien avec des termes choquants.
- Sont désormais bannis les prompts en lien avec le mouvement pro-choix, 420 et les enfants avec des armes.
- Il est toujours possible de générer du contenu violant le droit d’auteur ou violent via d’autres invites.