Meta vient de partager son premier rapport annuel sur les droits humains. Ce rapport détaille les mesures prises pour lutter contre la désinformation et le cyberharcèlement, mais ne revient pas sur les problèmes de modération de contenu.
Le géant Meta qui s’appelait Facebook auparavant a publié son premier rapport annuel sur les droits humains. Le document de 83 pages détaille les mesures prises par Meta pour gérer les problèmes relatifs aux droits de l’Homme en 2020 et 2021. Meta adopte un ton autosatisfait pour se féliciter de ses stratégies de lutte contre la désinformation et le cyberharcèlement.
Le rapport évoque évidemment les fake news sur la pandémie de Covid-19 qui se sont propagées comme une traînée de poudre sur Facebook. Le réseau social a perdu des millions d’utilisateurs quotidiens à cause de tous ces problèmes rampants sur la plateforme. Suite aux nombreuses critiques sur son modèle économique, Meta a adopté une nouvelle politique en matière de droits de l’Homme. Celle-ci « aide à garantir que Meta intègre la prise en compte des principes des droits de l’Homme dans nos décisions et nos actions », explique la société de Mark Zuckerberg dans le rapport.
Meta affirme avoir trouvé un équilibre entre la liberté d’expression et la sécurité
Facebook est souvent pointé du doigt pour les discours de haine et de violence qui circulent sur la plateforme. Une étude interne menée par l’entreprise a même découvert que la majorité des utilisateurs qui rejoignent des groupes extrémistes le font à cause de l’algorithme de Facebook qui recommande ces groupes. Face à tous ces problèmes, Meta assure que « nous gérons les risques liés à l’équilibre entre la liberté d’expression et les autres droits fondamentaux sur nos plateformes de médias sociaux ».
Le rapport affirme que Meta a ainsi trouvé un équilibre entre la liberté d’expression et la sécurité grâce à ses politiques de lutte contre les menaces émergentes et la désinformation. Néanmoins, Meta ne s’est pas étendu sur le sujet qui fâche, la modération de contenu sur ses plateformes. Il y a seulement quelques mois, la fuite d’un document interne des modérateurs de Facebook a dénoncé les pratiques de modération pour lutter contre les images de maltraitance d’enfants sur la plateforme.
Meta préfère éviter la toxicité du métavers et toutes ses dérives dans son rapport
Le rapport indique que : « en ce qui concerne la modération de contenu, Meta cherche déjà activement à aligner nos politiques de modération sur le droit international des droits de l’Homme », mais la société n’a pas donné plus de détails. De plus, Meta fait l’éloge de sa lutte contre la désinformation, mais évite de se plonger dans les problèmes liés au métavers. On sait néanmoins que le métavers est l’un des endroits les plus toxiques d’Internet où règnent violence, haine, agressions sexuelles virtuelles, propos racistes et misogynes, etc.
Enfin, la directrice des droits humains chez Meta, Miranda Sissons, a précisé qu’une centaine de personnes travaillent actuellement sur les problèmes liés aux droits humains. Il ne reste donc plus qu’à voir si Meta sera capable de sécuriser le métavers et de renforcer la modération de contenu. En attendant, ce rapport sur les droits humains est déjà un pas dans la bonne direction pour Meta.
Source : Engadget