Sur Facebook, des images de maltraitance d’enfants arrivent à passer à travers les mailles du filet de la modération. La fuite d’un document de formation utilisé pour les modérateurs dénonce les pratiques que ces derniers doivent suivre.
La modération de Facebook est régulièrement pointée du doigt. Il y a quelques mois, un rapport révélait que l’élite américaine échappe à la modération grâce à un programme VIP. On apprend maintenant que les images de maltraitance d’enfants ne sont pas strictement modérées et signalées sur le réseau social de Mark Zuckerberg.
Des millions de photos et de vidéos d’abus sexuels présumés sur des enfants sont signalés par Facebook tous les ans, mais cela ne suffit pas. Selon un nouveau rapport de The New York Times, lorsque les âges des personnes ne sont pas clairs, « les jeunes sont traités comme des adultes et les images ne sont pas signalées aux autorités ». Si un modérateur n’arrive pas à déterminer l’âge d’une personne qui semble jeune, il doit la considérer comme un adulte. Pourtant, ce sont bel et bien des enfants parfois.
À lire aussi > Facebook diffuse sa liste noire : 4000 criminels, terroristes et groupes haineux exposés
Facebook considère que les jeunes personnes sont des adultes en cas de doute
Un document de formation distribué aux modérateurs a fuité. Il détaille les pratiques que les modérateurs doivent suivre. En l’occurrence, le document explique comment ils doivent déterminer l’âge d’une personne sur une photo ou une vidéo. Dans le doute, ils doivent considérer que ce sont des adultes. Les images peuvent alors ne pas être signalées aux autorités compétentes. Normalement, toutes les images de maltraitance d’enfants doivent être transmises au National Center for Missing & Exploited Children (NCMEC). Si ces images de violence concernent des adultes, elles sont supprimées de Facebook, mais ne sont pas forcément signalées à l’extérieur.
Chez Facebook, les modérateurs doivent utiliser une méthode vieille de plus de 50 ans pour identifier « les phases progressives de la puberté », a expliqué The New York Times. Cependant, cette méthode « n’a pas été conçue pour déterminer l’âge de quelqu’un ». Les modérateurs estiment donc que de nombreuses images de maltraitance et d’abus sexuels sur des enfants ne sont jamais signalées. Pour rappel, les modérateurs ne peuvent passer que quelques secondes par image ou par vidéo avant de prendre une décision.
Facebook estime que cela permet de protéger la vie privée de ses utilisateurs
De son côté, Facebook ne voit pas le problème de ses techniques de modération. Le réseau social est celui qui envoie le plus d’images d’abus sexuels sur des enfants au NCMEC. Pour la société, considérer les personnes comme des adultes en cas de doute vise à protéger les utilisateurs et leur vie privée. Cela éviterait de faux signalements aux autorités. Antigone Davis qui est le responsable de sécurité chez Facebook a déclaré qu’ils seraient légalement responsables d’envoyer de faux rapports.
Au contraire, d’autres réseaux sociaux préfèrent être trop prudents et signalent toutes les images lorsqu’ils ne sont pas sûrs si les victimes sont des enfants. C’est par exemple le cas d’Apple, de Snapchat et de TikTok.
Source : Engadget