Monika Bickert (Facebook) : "Nous mettons à jour nos règles de modération chaque semaine"

Facebook a publié pour la première fois mardi un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d'utilisation.
Facebook a publié pour la première fois mardi un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d'utilisation.
  • Copié
, modifié à
Facebook a publié pour la première fois mardi un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d'utilisation.  
INTERVIEW

Opération transparence, épisode 2. Quelques semaines après la publication des règles qui permettent aux modérateurs du réseau social de décider s'il est nécessaire de retirer ou non tel ou tel contenu de la plateforme, Facebook a annoncé mardi les résultats de ses équipes de modération. Une manière pour le réseau social de monter qu’il ne laisse pas, contrairement à ce que lui reprochent régulièrement les associations, prospérer les propos haineux ou la propagande terroriste. Monika Bickert, la vice-présidente de Facebook en charge de la modération et de la gestion du terrorisme, était pour l'occasion de passage à Paris. Europe 1 l'a rencontrée.

Vous publiez mardi les résultats de votre politique de modération. C’est une première. Pourquoi avoir attendu si longtemps ?

Je suis arrivée chez Facebook il y a cinq ans. A l'époque, nous nous disions que nous mettions nos règles de modération à jour trop souvent, quasiment une fois par semaine, et qu'il était donc impossible de les publier car elles n'auraient jamais été à jour. Il y a un an, nous avons décidé de faire autrement. En septembre, nous avons commencé à partager ces règles en interne pour avoir un retour de personnes qui ne sont pas dans l’équipe modération. Ils nous ont dit "ici ce n'est pas clair", "là, on ne comprend pas" et nous avons fait les modifications nécessaires. En décembre, nous avons franchi une nouvelle étape et partagé les règles avec des organisations externes, des associations par exemple. Depuis quelques semaines, elles sont accessibles à tous sur notre site​.

Vous dites que les règles changent tout le temps, jusqu'à une fois par semaine... C'est vraiment si fréquent ?

Oui, nous avons un processus très précis. Toutes les deux semaines, le mardi, nous avons une réunion avec des personnes de plusieurs équipes chez Facebook. A cette réunion, il y a des personnes de différents bureaux, de Berlin ou Singapour par exemple, et de plusieurs équipes. Ça va des gens de mon équipe, aux personnes de la communication en passant par l'équipe "diversité" et l'équipe juridique par exemple. Cette réunion nous permet d'échanger sur les problèmes que nous rencontrons et les menaces pour lesquelles de nouvelles règles seraient nécessaires. Si nous repérons un problème important, nous mandatons une équipe en interne pour voir ce qu'il se passerait si nous devions modifier les règles, ce que l'on devrait retirer comme contenu... Ils proposent plusieurs options puis ils en discutent avec des personnes extérieures à Facebook, des associations par exemple. Une fois que ce processus est terminé nous choisissons l'une ou l'autre des options dans nos réunions du mardi.

Entendu sur europe1 :
Nous nous réunissons toutes les deux semaines pour échanger sur les règles de modération

Comment les modérateurs sont-ils formés à ces règles ?

Lorsque quelqu'un est recruté pour travailler dans l'équipe de modération de Facebook il est formé sur l'ensemble de nos règles. Mais soyons clair, il n'est pas obligé de travailler sur tous les sujets. Il peut nous dire 'je ne veux pas travailler sur la nudité' par exemple et ça ne pose pas de problème. Maintenant, il faut que, s'il tombe sur un contenu qui a été signalé dans la mauvaise catégorie, il puisse le traiter malgré tout. 

Mais est-ce suffisant ? Vous avez 7.500 modérateurs dans le monde, ça peut sembler peu par rapport aux deux milliards d'utilisateurs de Facebook... En avez-vous en France ?

7.500 est le dernier chiffre que nous ayons communiqué, mais il est assez ancien. Nous en avons déjà plus que cela et nous communiquerons bientôt sur un chiffre mis à jour. D'ici la fin de l'année, au total, comme l'a annoncé Mark Zuckerberg, nous aurons 20.000 personnes qui travailleront sur la sécurité chez Facebook. Cela inclut les ingénieurs, les équipes qui travaillent sur l'intelligence artificielle pour la modération et les modérateurs. Pour ce qui est des lieux où ils sont basés nous communiquons peu sur le sujet, mais, non, il n'y a pas de modérateurs en France. En revanche, nous avons dans l'équipe, des gens dont la langue maternelle est le français.

Malgré tout, les associations et les autorités de plusieurs pays vous reprochent régulièrement d'en faire trop ou pas assez...

Les règles ne sont et ne seront jamais parfaites... Vous aurez toujours des contenus qui sont à la limite de ce que l'on accepte. C'est pour ça que nous les modifions en permanence.

Entendu sur europe1 :
Les règles (de modération) ne seront jamais parfaites

L'intelligence artificielle peut-elle venir en aide aux modérateurs ?

Elle le fait déjà. Elle permet par exemple de repérer certains types de contenus qui sont ensuite examinés par les modérateurs. Mais aujourd'hui elle n'est pas encore capable, pour des propos haineux ou du harcèlement par exemple, de trancher toute seule car elle ne prend pas suffisamment en compte le contexte. Nous travaillons sur ce point. Une autre solution que nous utilisons, même si ce n'est pas de l'intelligence artificielle, est ce que nous appelons le hashing. Nous aidons le logiciel à repérer des images ou des vidéos qui ont été postées sur Facebook ou ailleurs et que nous n’autorisons pas. Grâce à ce travail, dès que quelqu'un essaye de poster un contenu pré-repéré sur Facebook il est supprimé automatiquement.

On pointe aussi régulièrement du doigt votre manque de transparence dans la modération. Le message d'utilisateur est supprimé, mais on ne lui dit pas pourquoi...

C'est complexe. Pour que nous soyons en mesure de dire à l'utilisateur pour quelle raison son contenu a été supprimé, il faut que notre logiciel interne le permette. Nous sommes en train de mettre en place un nouveau système et nous testons actuellement dans quelques pays le fait de donner plus d'informations. C'est le cas notamment pour les discours haineux et la nudité.

Quels résultats de modération ? D'après les chiffres publiés par Facebook, sur mille consultations effectuées par les utilisateurs, 2,5 contenus sont considérés comme "violent" au premier trimestre. Ils représentaient 1,8 contenu sur 1.000 au dernier trimestre 2017. Au total, le réseau social a retiré ou limité la diffusion de 3,4 millions de contenus relevant de cette catégorie dont la plupart (85,4%) ont été repérés par les logiciels de Facebook avant même leur signalement par les utilisateurs. Facebook a en revanche plus de difficultés à repérer les "discours haineux". Seuls 38% des contenus contenant un "discours haineux" l'ont été grâce au logiciel de Facebook. Les 62% restants ont été signalés par les utilisateurs après leur publication.

Concernant la propagande djihadiste, Facebook assure que la quasi-totalité des contenus (99,5%) sont retirés avant même leur signalement par les utilisateurs. Au total, entre janvier et mars, les équipes du réseau social ont supprimé 1,9 million de contenus entrant dans cette catégorie, un chiffre en très forte hausse de 73% par rapport au trimestre précédent.