Appel au meurtre, automutilation, nudité... : comment Facebook modère les publications

Le Guardin a publié les règles de modération de Facebook.
Le Guardin a publié les règles de modération de Facebook. © JUSTIN TALLIS / AFP
  • Copié
, modifié à
RÉSEAUX SOCIAUX - Le Guardian révèle les critères de modération des contenus postés sur Facebook. Explications.

Des centaines de pages et des dizaines de documents... Dans une enquête publiée dimanche, Le Guardian révèle les règles de modération de Facebook. Grâce aux documents internes destinés aux modérateurs que le quotidien britannique a pu consulter, on découvre sur quelles bases le réseau social de Mark Zuckerberg décide de censurer ou non certains contenus. De la violence au sexe en passant par le terrorisme, ces documents dévoilent aussi à quel point la frontière entre un contenu acceptable et un contenu violant les règles de Facebook est mince. Explications.

Des catégories protégées

Le système de modération de Facebook fonctionne avec des catégories. Certaines sont dites protégées et les menaces proférées à leur encontre sont donc jugées contraires aux règles du réseau social de manière quasi-systématique. Parmi elles, les étrangers, les sans domicile fixe ou encore les minorités religieuses. Mais le niveau des menaces et leur crédibilité est aussi prise en compte. Ainsi, un message appelant à tuer Donald Trump serait supprimé. De manière plus générale, toute menace crédible contre un chef d'Etat, un candidat à la présidence d'un pays, un policier, un juge, un témoin dans une affaire criminelle, une personne étant connue pour avoir déjà reçu des menaces ou une personne listée par des ONG comme cible potentielle sera supprimée.

Entendu sur europe1 :
"Frappons les roux" ou "Allons tabasser les petits gros" est acceptable

A l'inverse, des menaces peu crédibles, appelant, par exemple, à envahir l'Espagne, à tuer toutes les orques du monde ou expliquant que tous les pédophiles vont passer sur la chaise électrique seront jugées conformes aux règles de Facebook. Plus étonnant, un appel général à frapper les roux ou à tabasser les enfants gros est jugé acceptable par le réseau social. Étonnant également, "Je vais te tuer John" sera toléré, tandis que "Je vais te tuer John, j'ai le parfait couteau pour le faire", ne le sera pas.

L'épineuse question de la violence

La gestion des vidéos de mort violente s'avère encore plus épineuse pour Facebook. Car la différence entre la sensibilisation et le sadisme n'est pas toujours facile à établir. Ainsi, si le réseau social "n'autorise pas les utilisateurs à partager des photos ou des vidéos dans lesquelles des hommes ou des animaux meurs ou sont blessés de façon sadique", les vidéos montrant la mort violente d'une personne peuvent "permettre une prise de conscience". En résulte donc un traitement différent en fonction de l'âge des utilisateurs. "Pour les vidéos, nous pensons que les mineurs ont besoin de protection et que les adultes doivent avoir le choix. Nous signalons comme "sensibles" les vidéos de morts violentes d'humains", peut-on lire dans les documents publiés par Le Guardian.

Se pose également la gestion des Facebook Live, les vidéos en direct sur Facebook. Récemment, plusieurs vidéos ont fait scandale car elles montraient des personnes tentant de se suicider ou même des meurtres en direct. Et sur ce point encore, les décisions sont complexes. Facebook laissera par exemple en ligne les vidéos d'utilisateurs s'automutilant. Le réseau social justifie cette décision en expliquant vouloir éviter "de censurer ou punir des personnes en détresse qui tentent de se suicider" et précise que si le contenu était supprimé il bloquerait "toute occasion d'aider la personne".

Entendu sur europe1 :
Tous les messages sur la série "13 Reasons Why" sont remontés aux modérateurs seniors

Récemment, les modérateurs de Facebook ont également été briefés sur l'attitude à adopter face aux messages mentionnant la série de Netflix "13 reasons why" autour du suicide d'une adolescente. Tous les messages y faisant référence doivent en effet être remontés aux responsables afin de limiter les risques d'imitation et ainsi prévenir les possibles tentatives de suicide des adolescents.

Des efforts sur la nudité

C'est l'un des points qui a valu à Facebook de nombreuses remarques... Le réseau social avait été très critiqué pour avoir censuré le tableau L'origine du monde, ou la photographie historique de la petite fille brûlée au Napalm au Vietnam. A l'époque, Mark Zuckerberg avait avoué une erreur de jugement et promis de "faire mieux" à l'avenir. De fait, les documents révélés par Le Guardian montrent bien un assouplissement de la politique de l'entreprise. Ainsi, la nudité est désormais acceptée si elle est utilisée pour montrer une extrême maigreur ou des images prises dans les camps durant la Seconde Guerre mondiale et s'il fait partie d'une œuvre d'art, ou d'une image historique.

Enfin, le réseau social a également défini des règles pour lutter contre le revenge-porn. Car, les cas sont de plus en plus nombreux. 54.000 demandes ont été traités sur un seul mois, selon les documents internes de l’entreprise. Il considère comme telle une image ou une vidéo prise dans l'intimité, montrant au moins une personne nue, presque nue, ou active sexuellement et pour laquelle le consentement de l'une ou des personnes présentes est discutable. Ce consentement est notamment étudié en se basant sur le commentaire posté avec la photo ou la vidéo.

Du cas par cas impossible à appliquer

Toutes ces règles, parfois absurdes comme le montrent certains exemples présents dans les documents de Facebook, montrent bien la difficulté pour le réseau social d'établir des consignes précises. Car souvent, le niveau de violence ne peut pas être jugé sans examiner le contexte de la publication. Un travail long et compliqué qui ne peut pas être réalisé pour chaque signalement. L'examen et les décisions reposent donc en grande partie sur les équipes de modération de Facebook.

Dans un communiqué, Facebook a réagi à la publication de ces documents par Le Guardian. "Notre priorité est de garantir la sécurité des personnes sur Facebook", réaffirme notamment Monika Bickert, Head of Global Policy Management chez Facebook. "Cela requiert beaucoup de réflexion autour de questions pointues et difficiles, et nous prenons très au sérieux le fait de le faire correctement. Mark Zuckerberg a récemment annoncé que nous allons ajouter 3 000 personnes à nos équipes de modération – qui s'ajoutent aux 4 500 personnes qui composent cette équipe aujourd’hui – pour examiner les millions de signalements que nous recevons chaque semaine, et pour améliorer le mode opératoire pour agir le plus rapidement possible", poursuit-elle annonçant que le réseau social travaille actuellement pour simplifier la procédure de signalement et "accélérer la réponse des équipes sur les publications qui ne respectent pas les standards".