Facebook affirme que son intelligence artificielle joue un rôle clé contre les discours haineux et la violence sur sa plateforme. Selon lui, la prévalence des discours haineux a chuté de près de 50 % depuis juillet 2020.
Après s’être défendu qu’Instagram n’est pas nocif pour les adolescentes, Facebook fait face à de nouvelles accusations. Un récent rapport de The Wall Street Journal qui a mené l’enquête révèle que la plateforme est « criblée de failles qui causent des dommages, souvent d’une manière que seule l’entreprise comprend parfaitement ». En effet, l’intelligence artificielle de Facebook n’aurait supprimé que 2 % des posts qui génèrent des discours haineux.
De son côté, la lanceuse d’alertes Frances Haugen, ancienne ingénieure-chef de produit chez Facebook, affirme que l’entreprise s’appuie trop sur l’intelligence artificielle et les algorithmes qui ne sont pas à la hauteur. Elle a témoigné au Congrès américain que les algorithmes mettent en avant des posts contenant de la désinformation et provoquant des conflits chez les utilisateurs. Selon elle, « nous devrions avoir un logiciel à l’échelle humaine, où les humains ont des conversations ensemble et non des ordinateurs » qui choisissent ce que les utilisateurs doivent voir.
À lire aussi > Facebook diffuse sa liste noire : 4000 criminels, terroristes et groupes haineux exposés
Les posts Facebook encourageant la haine représentent 0,05 % du contenu visionné
Suite à ces rapports et témoignages, Facebook a riposté. Le vice-président de l’intégrité chez Facebook, Guy Rosen, a défendu l’entreprise dans un article de blog publié hier. Il a notamment révélé que la prévalence des discours haineux a chuté de près de 50 % depuis juillet 2020. À l’heure actuelle, les discours haineux représentent 0,05 % du contenu visionné, soit environ 5 vues sur 10 000.
Guy Rosen a aussi déclaré que : « les données extraites de documents divulgués sont utilisées pour créer un récit selon lequel la technologie que nous utilisons pour lutter contre les discours haineux est inadéquate et que nous déformons délibérément nos progrès. Ce n’est pas vrai ». Il reconnaît que le système en place n’est pas parfait. Cependant, il affirme que les équipes y travaillent pour identifier des problèmes et apporter des solutions.
À lire aussi > Facebook : « l’élite américaine » échappe à la modération grâce à un programme VIP
Facebook affirme que le taux de détection proactive est maintenant supérieur à 97 %
De plus, Guy Rosen a précisé que Facebook ne supprime pas automatiquement tous les posts s’apparentant à des discours haineux. Si le post en question ne remplit pas tous les critères pour être supprimé, l’algorithme va faire en sorte de réduire sa portée. D’ailleurs, les pages, les groupes et les utilisateurs qui partagent régulièrement du contenu susceptible d’encourager la haine et la violence ne sont pas recommandés.
Enfin, l’objectif de Facebook est de pouvoir détecter les contenus problématiques avant qu’ils ne soient signalés par les utilisateurs de la plateforme. Guy Rosen a affirmé que le taux de détection proactive est passé de 23,6 % à plus de 97 % en seulement quelques années.
Source : Gizmodo