L’algorithme de TikTok incite des adolescents vulnérables à se suicider

TikTok continue de nourrir les craintes alors que les résultats d’enquêtes indiquent que son algorithme peut pousser les adolescents au suicide en leur suggérant des vidéos au contenu glorifiant la mort. L’étau se resserre sur l’application chinoise qui doit faire face aux restrictions des gouvernements occidentaux.

TikTok suicide algorithme adolescents
© Unsplash

C’est une suspicion qui court depuis un moment : l’algorithme de TikTok serait dangereux. Depuis que le réseau social a explosé en 2018, les psychologues essaient de comprendre son impact sur les plus jeunes. Propriété de la société chinoise ByteDance, l’application a atteint 1 milliard de téléchargements plus rapidement que tout autre réseau social, prenant le monde par surprise.

Son succès s’explique par son pouvoir d’attraction. L’algorithme qui alimente les recommandations propose un défilé de vidéos courtes créés par les utilisateurs pour les inciter à garder les yeux rivés sur leur écran. TikTok est devenu tellement populaire que ses rivaux américains tentent maintenant de l’imiter, comme Facebook avec ses Reels dont la monétisation est une priorité.

L’algorithme de TikTok pointé du doigt par les psychologues

Ce fonctionnement inquiète les psychologues et pédopsychiatres. Des enquêtes menées auprès d’adolescents aux Etats-Unis ont révélé une corrélation entre les réseaux sociaux et la dépression, l’automutilation et le suicide.

Depuis la fin 2020, les tentatives de suicide des jeunes en France augmentent à un rythme alarmant. Dans la région Pays de la Loire, les passages aux urgences des jeunes de 11 à 18 ans pour geste suicidaire ont augmenté de 60 % à 80 %, passant de 25 chaque mois en 2019 à une cinquantaine en 2021. Cette hausse se serait poursuivie en 2022, selon une enquête de l’observatoire régional de la santé les Pays de la Loire. La situation est similaire dans le reste de la France.

De même aux Etats-Unis, où l’American Psychological Association attribue en partie la responsabilité de ce phénomène aux réseaux sociaux, au premier rang desquels TikTok.

TikTok attaqué en justice pour ses recommandations vidéos

Lors de l’audition au Congrès en mars qui devait aider à déterminer si TikTok doit ou non faire l’objet d’une interdiction totale aux États-Unis, un député américain a évoqué la mort d’un adolescent auquel l’application avait suggéré des vidéos incitant au suicide. Celui-ci a montré à Shou Chew, PDG de TikTok, certaines de ces vidéos glaçantes que l’application avait envoyés au garçon dans les mois précédents sont décès, en lui demandant s’il laisserait ses propres enfants regarder de tels contenus. Le même mois, les parents de cet adolescent ont intenté une action en justice pour homicide contre TikTok et ByteDance devant le tribunal de l’État de New York.

Jamie Favazza, une porte-parole du réseau social, affirme que l’entreprise s’engage à assurer la sécurité et le bien-être de ses utilisateurs, en particulier des adolescents. « Nos cœurs se brisent pour toute famille qui subit une perte tragique, déclare-t-elle à Bloomberg. Nous nous efforçons d’offrir une expérience positive et enrichissante et nous continuerons à investir de manière significative dans la protection sur notre plateforme. »

L’algorithme de recommandation original de TikTok a été conçu par une équipe d’ingénieurs chinois travaillant pour ByteDance. Si l’application a été conçue en Chine, elle est utilisée presque partout dans le monde, sauf dans son pays de d’origine où elle ne peut même pas être téléchargée. TikTok affirme que son algorithme est désormais géré par des ingénieurs du monde entier, avec des équipes basées en Amérique du Nord, en Europe et en Asie. Cependant, plus d’une douzaine d’anciens employés de l’équipe « confiance et sécurité » de l’entreprise affirment que ce sont les cadres et les ingénieurs de Pékin qui en restent les maîtres.

« Confiance et sécurité » sur TikTok

L’équipe « confiance et sécurité » est censée concevoir des fonctionnalités et des politiques visant à assurer la sécurité des utilisateurs de TikTok.  Cette équipe répartie aux États-Unis, en Irlande et à Singapour modère les milliards de vidéos uploadées chaque jour sur la plateforme. Elle est tenue responsable de questions telles que la sexualisation des mineurs ou des défis qui encouragent les enfants à se mettre en danger. Les membres de l’équipe suppriment les messages qui ne respectent pas les règles et créent des outils pour aider les utilisateurs à filtrer les contenus préjudiciables.

Les anciens employés, qui ont parlé sous le couvert de l’anonymat parce qu’ils ont signé des accords de confidentialité, affirment qu’ils n’ont quasiment pas eu d’impact sur l’algorithme qui gère le flux « Pour toi » et que leurs demandes d’informations sur le fonctionnement de l’algorithme ont souvent été ignorées. Ils insistent qu’ils étaient voués à l’échec, puisqu’on leur a demandé d’améliorer la sécurité d’une application dont ils ne pouvaient pas comprendre les fondements.

À lire : Ce filtre TikTok inquiète les professionnels : « même avec la chirurgie esthétique, vous n’aurez jamais ce rendu »

Le réseau social affirmait en 2021 qu’il testait des moyens d’empêcher son algorithme d’envoyer de multiples vidéos sur des sujets tels que les régimes extrêmes ou la tristesse. Aucun changement n’était arrivé jusqu’à ce que son PDG ne soit interrogé vigoureusement par le Congrès des Etats-Unis. Dansc un communiqué de presse publié le 16 mars, la société a indiqué qu’elle avait procédé à 15 mises à jour de son algorithme au cours de l’année écoulée, mais est-ce que ce sera suffisant ?

Source : Bloomberg