Activision emploie une intelligence artificielle pour surveiller le chat vocal de Warzone

Activision va déployer une intelligence artificielle pour modérer le chat vocal de Modern Warfare 2 et de Warzone. Ce robot est déployé dès aujourd’hui en bêta sur les serveurs nord-américains pour détecter automatiquement les abus dans le chat.

Call Of Duty IA Voicechat modération Modern Warfare
DR

Call of Duty est probablement la franchise de FPS la plus populaire de tous les temps. Comme n’importe quel jeu avec un tel succès, il attire une communauté (oui, je te regarde League of Legends) parfois agaçante. Activision prépare maintenant la sortie du reboot de Modern Warfare 3, dont la bêta sera bientôt disponible. Pour cette sortie, l’éditeur de CoD veut sévir contre les joueurs toxiques.

C’est pourquoi Bobby Kotick a signé un partenariat avec Modulate, une entreprise spécialiste de l’intelligence artificielle. Celle-ci développe un logiciel très spécial appelé ToxMod, qui intégrera bientôt Modern Warfare 2 (celui de 2022, pas celui de 2009 où un malware se diffuse), le battle Royale Warzone 2 et Modern Warfare 3 à sa sortie. Ce robot offre des capacités de modération inédites.

ToxMod, l’IA qui écoute le chat vocal de Call of Duty

Selon Activision, ToxMod est capable “d’identifier en temps réel les discours toxiques, y compris les discours haineux, le langage discriminatoire, le harcèlement et bien d’autres choses encore, et de prendre des mesures contre ces discours“. Gare à ceux qui jouent sur les serveurs nord-américains, son déploiement en bêta-test commence aujourd’hui !

Plutôt que d’attendre que les joueurs signalent un joueur au discours toxique dans le chat et qu’un humain évalue le signalement, l’IA va faciliter énormément le processus. Soyez rassuré, l’IA n’aura pas les coudées franches pour bannir les joueurs. Une FAQ sur le sujet publiée aujourd’hui par Call of Duty précise que le rôle de l’IA est seulement d’observer, pour que les humains prennent ensuite une décision.

À lire > PS5 : Sony pense que Microsoft va « saboter » les jeux Call of Duty sur la console

Comment fonctionne ce robot-shérif de Modern Warfare ?

ToxMod ne se contente pas d’examiner les mots-clés pour signaler une potentielle infraction. Modulate indique que son outil a la capacité unique d’analyser le ton et l’intention du discours pour déterminer s’il est toxique ou non. Pour cela, son modèle linguistique a analysé des milliers d’heures d’enregistrement de discours divers et variés.

ToxMod aurait ainsi la capacité de distinguer les propos malveillants du taquinage amical. Le site officiel de Modulate mentionne quelques jeux dans lesquels ToxMod est déjà utilisé, mais ce sont surtout de petits jeux VR comme Rec Room. Le déploiement de l’IA pour aider à la modération dans un jeu aux centaines de milliers de joueurs quotidiens comme Call of Duty représente un chambardement majeur pour l’industrie du jeu vidéo.