Santé mentale: TikTok à nouveau pointé du doigt dans un rapport d’Amnesty International
Publié le :
L'ONG a enquêté pendant plusieurs mois sur les dérives du réseau social TikTok et leurs conséquences sur la santé mentale des plus jeunes. Les résultats sont accablants pour la plateforme qui, d'après le rapport, continue d'orienter les plus jeunes vers des contenus banalisant les actes de mutilation ou de suicide.

Il y a deux ans, celle que nous appelons Emma, 18 ans, installe TikTok sur son téléphone pour la première fois. Les vidéos proposées par l'application correspondent dans un premier temps aux centres d'intérêt qu'elle a renseignés. Mais au bout de quelques minutes, elle est interpelée par un clip musical. « Cette musique racontait les difficultés que pouvait rencontrer le chanteur sur les sujets du mal-être. Comme je suis restée assez longtemps sur la vidéo, on m'en a proposé d'autres. J'ai commencé à rentrer dans cette spirale. Et c'était de pire en pire », témoigne-t-elle.
En l'espace d'une semaine, et sans l'avoir explicitement demandé, l'adolescente est confrontée à des vidéos de plus en plus toxiques. « Des contenus qui banalisent la mort, qui incitent à l'automutilation, à tout type de comportement dangereux et néfaste. » La santé d'Emma se dégrade. Ses visites chez le psychologue ne suffisent pas. En dépression, l'adolescente est hospitalisée à six reprises.
À lire aussiFrance : la commission d’enquête parlementaire sur TikTok livre ses premiers enseignements
Automutilation et suicide
Son témoignage fait écho aux conclusions du rapport d'Amnesty International. L'ONG a créé trois faux comptes d'adolescents de 13 ans sur TikTok et a tiré deux enseignements : les contenus toxiques apparaissent très rapidement et avant même qu'une quelconque préférence n'ait été exprimée par l'utilisateur.
« Quand on a créé les trois faux comptes d'adolescents et d'adolescentes, on n'a rien liké, on n'a rien partagé, on n'a rien commenté, on a fait aucune recherche, on a simplement regardé deux fois des vidéos liées à la santé mentale, rapporte Katia Roux, chargée de plaidoyer à Amnesty International France. Et pour autant, ça a suffi à voir les fils de ces comptes remplis et presque inondés de contenus de ce type. Et au bout de 45 minutes, on avait les premiers contenus liés à l'automutilation et au suicide sur deux de ces trois comptes. Donc oui, très rapidement. »
À lire aussi« Mange gros, sois grosse » : en France, l'inquiétante tendance « SkinnyTok » qui incite à la maigreur
Attaque en justice
La politique de modération de TikTok demeure insuffisante, selon l'ONG. Elle appelle la plateforme à repenser son modèle économique pour protéger ses utilisateurs. C'est aussi l'avis de Stéphanie, dont la fille s'est suicidée il y a cinq ans après avoir visionné des contenus toxiques sur TikTok : « On aurait pu lui proposer des contenus plus sympathiques ou des programmes de sport ou lui dire : "Va te balader". Mais le problème, si on lui propose ça, elle va plus être sur la plateforme. Et en fait, le modèle de TikTok, c'est de maximiser le temps sur le réseau social. On s'en fout complètement de l'enfance. »
Avec dix autres familles, réunies dans un même collectif, Stéphanie a saisi la justice française contre TikTok pour « provocation au suicide ». La plainte est toujours en cours d'instruction. De son côté, Emma remonte difficilement la pente : « Je les ai vues, ces vidéos, et il y a des choses qui me restent gravées, dans ma rétine. J'aurai ces contenus pendant très longtemps... » Mais désormais, elle signale tous les contenus toxiques qui polluent ses réseaux sociaux.
NewsletterRecevez toute l'actualité internationale directement dans votre boite mail
Je m'abonne