Publicité
Publicité

TikTok : comment l’algorithme pousse des contenus dépressifs et suicidaires aux utilisateurs adolescents

Laura Lego (service reportage) . 1 min
Frères musulmans : comment les islamistes ont phagocyté TikTok pour embrigader la jeunesse
TikTok : comment l’algorithme pousse des contenus dépressifs et suicidaires aux utilisateurs adolescents AFP / © JENS KALAENE / DPA / dpa Picture-Alliance

En quelques minutes de navigation, des vidéos aux messages suicidaires s’affichent sur le fil d’actualité d’utilisateurs mineurs. C’est la conclusion d’une enquête d’Amnesty International, qui met en cause le fonctionnement de l’algorithme de TikTok. Laura Lego a fait le test et les résultats sont sans appel.

C’est l’une des faces cachées de TikTok. L’ONG Amnesty International révèle que de nombreuses vidéos aux tendances dépressives et suicidaires sont facilement accessibles aux adolescents. Pire, l’algorithme du réseau social pousse ces contenus à certains utilisateurs, dont certains sont mineurs.

La suite après cette publicité
La suite après cette publicité

Après la création d’un faux compte d’adolescente sur TikTok, une vingtaine de minutes sur l’application suffisent pour voir apparaître les premières vidéos tristes. Au début, il s’agit surtout de contenus en lien avec des ruptures amoureuses, qui affichent des images sombres et qui sont accompagnés de musiques mélancoliques.

Des vidéos sombres en quelques minutes

Pendant le test, nous ne réagissons à aucune publication : nous ne commentons aucune publication, et nous ne nous abonnons à aucun compte. Nous avons seulement visionné ces contenus plus longtemps que les autres. Quelques minutes plus tard, le fil est saturé de vidéos au caractère dépressif. Certaines publications montrent des techniques d’automutilation, d’autres vont jusqu’à inciter au suicide avec des messages explicites : « Fais-le, personne ne tient à toi. ».

La suite après cette publicité
La suite après cette publicité

Comment de tels contenus se retrouvent-ils massivement proposés à des adolescents ? Selon Marc Faddoul, directeur d’IA Forensics, une organisation spécialisée dans l’analyse des algorithmes des réseaux sociaux, TikTok prédit les centres d’intérêts des utilisateurs à partir de micro-interactions. « Si vous commencez à regarder des vidéos tristes ou à les re-regarder ou à les liker, tout ça, ce sont des signaux qui vont indiquer à l’algorithme qu’il y a un intérêt pour ce type de contenu », explique le chercheur.

Un algorithme qui enferme dans la détresse

« Ensuite, il y a une deuxième dynamique qui se met en place, de polarisation, détaille Marc Faddoul, où on va entrer de plus en plus dans cette niche, avec du contenu de plus en plus triste, dépressif. » Le réseau social cherche ainsi à capter l’attention des utilisateurs le plus longtemps possible.

La suite après cette publicité
La suite après cette publicité

Interrogés lors de la Commission d’enquête parlementaire sur les effets psychologiques de TikTok, des responsables de l’entreprise chinoise ont affirmé que la sécurité des jeunes utilisateurs est l’une des priorités du système de recommandation du réseau social.

Pourtant, au cours de notre expérimentation, aucun message d’aide ou de prévention n’est apparu. Une absence inquiétante alors que l’exposition répétée à ces contenus peut avoir des effets graves sur la santé mentale des adolescents