TikTok : des vidéos sur le suicide... à portée de clics

TikTok et santé mentale ne font pas toujours bon ménage. Une organisation américaine contre la haine en ligne a analysé l'algorithme de la plateforme et montré qu'il valorisait les contenus sur le suicide et les troubles du comportement alimentaire.

• Par

Thèmes :

Commentaires0 Réagissez à cet article
Illustration article

Trois minutes. C'est en moyenne le temps qu'il faut à un abonné TikTok, juste après la création de son compte, pour se voir proposer des contenus relatifs au suicide. Et près de huit minutes pour voir apparaître des vidéos en lien avec les troubles du comportement alimentaire. C'est ce qui ressort d'un rapport du Centre de lutte contre la haine numérique (CCDH) anglo-saxon. Publiée le 15 décembre 2022, cette étude alerte sur les dangers potentiels de la plateforme chinoise sur la santé mentale des adolescents qui composent la majorité de son audience. « Ce rapport vise à donner aux parents et aux décideurs un aperçu du contenu et des algorithmes qui façonnent la vie des jeunes aujourd'hui », explique Imran Ahmed, directeur du CCDH. Pour mener leur enquête, les chercheurs ont créé huit faux profils depuis les Etats-Unis, le Royaume-Uni, le Canada et l'Australie, se faisant passer pour des internautes âgés de 13 ans, avec des profils « vulnérables » et « standards ». « Ce que nous avons trouvé est profondément troublant », révèle Imran Ahmed.

Des vidéos sur l'automutilation et la perte de poids

Dès l'ouverture desdits comptes, les enquêteurs ont volontairement liké des contenus en rapport avec l'image corporelle et les troubles psychiques. Il n'en fallait pas plus pour que le réseau social et son algorithme recommandent « toutes les 39 secondes » sur une période de 30 minutes, des vidéos sur la thématique de l'automutilation, des discussions sur la perte de poids, sur le suicide, avec la présence de lames de rasoir… L'étude révèle que le contenu recommandé était d'ailleurs « plus extrême » pour les comptes vulnérables, avec des informations « en libre-service » sur des méthodes d'automutilation et des « jeunes discutant de plans pour se suicider ». Une négligence de la « Big tech » qui, selon le CCDH, a conduit certains jeunes à commettre l'irréparable. C'est le cas de Molly Russell, 14 ans, mentionnée dans le rapport. La jeune fille s'est suicidée en 2017 après avoir aimé, partagé ou enregistré 2 100 messages liés au suicide, à l'automutilation ou à la dépression sur Instagram au cours des six mois précédant sa mort. La justice britannique avait fini par reconnaître les réseaux sociaux comme responsables de son décès.

Des contenus nocifs et déchirants

Si TikTok a contribué à lever les tabous sur la santé mentale, pour le meilleur, cela peut-être aussi pour le pire, comme le soulignait en mars 2022 Jasmina Mallet, psychiatre, responsable du centre « Expert FondaMental schizophrénie » de l'hôpital Louis Mourier à Colombes (92) : « C'est bien que la parole se libère sur ce sujet. Mais attention à l'autodiagnostic » (article en lien ci-dessous). Plus grave que l'autodiagnostic, c'est « l'impact cumulatif » de « contenus nocifs et déchirants » dont les jeunes sont « bombardés » qui inquiète Imran Ahmed. « Plutôt que du divertissement et de la sécurité, nos découvertes révèlent un environnement toxique pour les plus jeunes utilisateurs de TikTok, intensifié pour les plus vulnérables. Ce rapport souligne l'urgence d'une réforme des espaces en ligne », font savoir ses auteurs. Le CCDH recommande également aux parents d'entreprendre un travail de prévention auprès de leurs enfants, de leur demander ce qui apparaît en règle générale sur le fil d'actualité, de rester vigilant si l'enfant présente des signes ou comportements inquiétants et de ne pas hésiter à demander une aide extérieure (psychologue ou psychiatre).

Partager sur :
  • LinkedIn
  • Twitter
  • Facebook
"Tous droits de reproduction et de représentation réservés.© Handicap.fr. Cet article a été rédigé par Clotilde Costil, journaliste Handicap.fr"

Commentaires0 Réagissez à cet article

Thèmes :

Rappel :

  • Merci de bien vouloir éviter les messages diffamatoires, insultants, tendancieux...
  • Pour les questions personnelles générales, prenez contact avec nos assistants
  • Avant d'être affiché, votre message devra être validé via un mail que vous recevrez.