TikTok : comment l’algorithme pousse des contenus dépressifs et suicidaires aux utilisateurs adolescents
En quelques minutes de navigation, des vidéos aux messages suicidaires s’affichent sur le fil d’actualité d’utilisateurs mineurs. C’est la conclusion d’une enquête d’Amnesty International, qui met en cause le fonctionnement de l’algorithme de TikTok. Laura Lego a fait le test et les résultats sont sans appel.
C’est l’une des faces cachées de TikTok. L’ONG Amnesty International révèle que de nombreuses vidéos aux tendances dépressives et suicidaires sont facilement accessibles aux adolescents. Pire, l’algorithme du réseau social pousse ces contenus à certains utilisateurs, dont certains sont mineurs.
Après la création d’un faux compte d’adolescente sur TikTok, une vingtaine de minutes sur l’application suffisent pour voir apparaître les premières vidéos tristes. Au début, il s’agit surtout de contenus en lien avec des ruptures amoureuses, qui affichent des images sombres et qui sont accompagnés de musiques mélancoliques.
Des vidéos sombres en quelques minutes
Pendant le test, nous ne réagissons à aucune publication : nous ne commentons aucune publication, et nous ne nous abonnons à aucun compte. Nous avons seulement visionné ces contenus plus longtemps que les autres. Quelques minutes plus tard, le fil est saturé de vidéos au caractère dépressif. Certaines publications montrent des techniques d’automutilation, d’autres vont jusqu’à inciter au suicide avec des messages explicites : « Fais-le, personne ne tient à toi. ».
Comment de tels contenus se retrouvent-ils massivement proposés à des adolescents ? Selon Marc Faddoul, directeur d’IA Forensics, une organisation spécialisée dans l’analyse des algorithmes des réseaux sociaux, TikTok prédit les centres d’intérêts des utilisateurs à partir de micro-interactions. « Si vous commencez à regarder des vidéos tristes ou à les re-regarder ou à les liker, tout ça, ce sont des signaux qui vont indiquer à l’algorithme qu’il y a un intérêt pour ce type de contenu », explique le chercheur.
Un algorithme qui enferme dans la détresse
« Ensuite, il y a une deuxième dynamique qui se met en place, de polarisation, détaille Marc Faddoul, où on va entrer de plus en plus dans cette niche, avec du contenu de plus en plus triste, dépressif. » Le réseau social cherche ainsi à capter l’attention des utilisateurs le plus longtemps possible.
Interrogés lors de la Commission d’enquête parlementaire sur les effets psychologiques de TikTok, des responsables de l’entreprise chinoise ont affirmé que la sécurité des jeunes utilisateurs est l’une des priorités du système de recommandation du réseau social.
Pourtant, au cours de notre expérimentation, aucun message d’aide ou de prévention n’est apparu. Une absence inquiétante alors que l’exposition répétée à ces contenus peut avoir des effets graves sur la santé mentale des adolescents