Hausse des amendes, modération en 24 heures...comment la lutte contre le racisme en ligne pourrait être renforcée

Le rapport sur le racisme et antisémitisme a été remis Edouard Philippe.
Le rapport sur le racisme et antisémitisme a été remis Edouard Philippe. © DAMIEN MEYER / AFP
  • Copié
Un rapport remis à Edouard Philippe préconise de nouvelles mesures pour lutter contre le racisme sur Internet. Parmi celles-ci, l'obligation pour les réseaux sociaux de modérer les contenus sous 24 heures.

Mieux lutter contre la haine et le racisme en ligne. Dans un rapport remis jeudi soir à Edouard Philippe, la députée de Paris Laetitia Avia, le Dr Gil Taïeb, vice-président du Conseil représentatif des institutions juives de France (CRIF) et l'enseignant Karim Amellal pointent "les faiblesses du dispositif réglementaire actuel". Ils proposent de contraindre les plateformes du numérique à retirer les contenus en 24 heures sous peine de sanctions et de créer "une autorité de régulation" pour assurer le suivi de la mise en place de ces mesures.

Favoriser le signalement des messages illicites

La plupart des plateformes en ligne modèrent leurs contenus après un signalement de la part des utilisateurs. Si l'intelligence artificielle permet déjà de détecter les images pornographiques, elle a en effet plus de mal à repérer les messages haineux. Le rapport préconise donc de simplifier, encore, la procédure de signalement des contenus litigieux avec la création "d'un logo unique de signalement visible et indéniable sur toutes les plateformes". Il serait défini "par voie réglementaire" et permettrait d'accéder à la procédure de signalement.

La procédure serait, elle, encadrée pour être la plus simple et la plus rapide possible avec une "limitation du nombre de clics entre le début et la fin de la procédure" et la possibilité pour un internaute de signaler un message sans être inscrit sur la plateforme où il a été publié. Enfin, les auteurs appellent à la "création d'un mécanisme de dépôt de plainte en ligne pour les victimes" et de "chambres pénales spécialisées dans le traitement des infractions relatives au racisme, à la discrimination et à l'antisémitisme en ligne et hors ligne".

Forcer les réseaux sociaux à une modération rapide

Pour éviter que les contenus racistes ou antisémites signés restent en ligne trop longtemps, les trois auteurs du rapport préconisent "d'imposer aux grandes plateformes un délai de 24 heures pour retirer les contenus". Seraient notamment concernés les réseaux sociaux comme Facebook et Twitter. Concernant les contenus sur lequel un doute peut exister, le rapport suggère la "mise en quarantaine des contenus à titre préventif" afin de laisser le temps aux modérateurs d'examiner le contenu plus en détail si nécessaire.

Les utilisateurs auraient par ailleurs accès à une procédure d’appel. Le rapport préconise par ailleurs une modification de la loi sur le numérique de 2004 pour contraindre les fournisseurs d'accès internet et les plateformes à fournir l'identité des auteurs de ce type de messages à la justice dans un délai maximal de 24 heures après la demande. Le texte préconise également une forte augmentation du montant des amendes afin de les rendre "dissuasives". Leur montant maximum serait porté à 37,5 millions d'euros pour les personnes morales et 7,5 millions d'euros pour les personnes physiques.

Une autorité de régulation pour contrôler le tout

Afin de permettre un suivi complet de la mise en place de ces mesures et de leur respect, les trois auteurs recommandent la création d'une autorité de régulation rattachée au Premier ministre. Malgré le nombre important de services et dispositifs constituant l’armature publique actuelle de régulation de l’univers numérique (entre autres : CNIL, CSA, DGCCCRF, ARCEP, HADOPI...), aucun d’entre eux n’est directement compétent" pour traiter de ces sujets, indique le texte. Cette nouvelle autorité aurait donc pour mission de "contrôler la mise en œuvre des obligations de l'ensemble des opérateurs", de prononcer des sanctions, mais aussi "d'instruire et engager les procédures de blocage des sites illégaux". Les auteurs estiment que " 30 à 50 personnes" seraient nécessaires, mais qu’il est possible de puiser au sein des budgets des organisations déjà existantes.

Toutes ces dispositions seraient mises en place grâce à une modification de la loi pour la confiance dans l'économie numérique de 2004, comme l'avait déjà préconisé une note interne au ministère du Numérique révélée par Europe 1 au printemps dernier.