Face aux critiques, Facebook se félicite d'une meilleure modération de ses contenus

  • Copié
Louise Bernard avec Alexis Patri
Le groupe Meta, nouveau nom du groupe Facebook, publie son rituel rapport sur la modération des contenus sur cette plateforme. En pleine tourmente politico-médiatique, le géant des réseaux sociaux se félicite d'une amélioration de la modération sur ses applications. Un entrain qui mérite toutefois d'être nuancé.

C'est un rapport publié tous les trimestres. Mais la publication de sa dernière édition intervient en pleine tourmente politique et médiatique pour le groupe Meta (Facebook, Messenger, Instagram, WhatsApp), notamment depuis les révélations des Facebook Files dans de nombreux médias et le témoignage de la lanceuse d'alerte Frances Haugen. Cette ancienne employée de Facebook accuse le groupe de privilégier le profit, plutôt que le combat contre la haine en ligne et contre la désinformation. Elle est auditionnée mercredi par l'Assemblée national et le Sénat français.

Trois messages haineux sur 10.000

Que dit ce rapport sur la modération des contenus ? D'après Meta, les chiffres s'améliorent. En trois mois, 1,8 milliard de faux comptes auraient été supprimés. 777 millions de spams et plus de 22 millions de messages haineux l'auraient également été. L'entreprise dit réussir à détecter automatiquement sur Instagram et Facebook presque tous les contenus liés à la nudité, au harcèlement ou à l'apologie du terrorisme, sans qu'un signalement d'utilisateur ne soit nécessaire. 

Meta affirme également que les utilisateurs sont moins exposés aux contenus haineux : seuls trois messages sur 10.000 vus par les utilisateurs seraient qualifié ainsi. Un chiffre en baisse. A noter que ces chiffres sont une moyenne à l'échelle mondiale. Or, les Facebook Files ont montré qu'il y a de grandes différences dans la modération des contenus selon les pays.