Présidentielle : l'algorithme de YouTube soupçonné de favoriser certains candidats

  • A
  • A
Présidentielle : l'algorithme de YouTube soupçonné de favoriser certains candidats
Mélenchon, Le Pen et Asselineau apparaissent dans près de 60% des titres des vidéos suggérées par YouTube qui comprennent le nom d’un(e) candidat(e), selon Data for Good.@ Capture d'écran Algotransparency
Partagez sur :

Jean-Luc Mélenchon, Marine Le Pen et François Asselineau sont favorisés par l'algorithme des vidéos de recommandation, selon l'étude réalisée par Data for Good.

Lors de l'élection de Donald Trump, l'algorithme de Google avait été critiqué par des chercheurs, car il était soupçonné de pouvoir influer sur l'élection présidentielle en fonction de l'ordre des résultats apparaissant dans le moteur de recherche. Dans le cadre de l'élection présidentielle en France, c'est à présent l'algorithme de YouTube qui est dans le radar d'une association regroupant des développeurs et des scientifiques, comme l'a rapporté Le Monde vendredi

"L'algorithme de recommandation de YouTube, qui suggère les vidéos à regarder, présente un biais net en faveur de Mélenchon, Le Pen et Asselineau", selon l'étude réalisée par cette association, Data for Good.

Un biais dans les vidéos suggérées. Pour parvenir à cette conclusion, plusieurs membres de Data for Good ont fait tourner un programme pendant deux semaines - du 27 mars au 10 avril - pour rechercher comment les candidats apparaissaient sur YouTube, et en particulier quelles vidéos étaient mises en avant dans les "vidéos suggérées", à droite sur l'écran. Selon eux, quelle que soit la requête au départ, Jean-Luc Mélenchon, Marine Le Pen et François Asselineau sont les candidats qui reviennent le plus fréquemment.  "Mélenchon, Le Pen et Asselineau apparaissent dans près de 60% des titres des vidéos suggérées par YouTube qui comprennent le nom d’un(e) candidat(e)", indique ainsi le communiqué de presse de Data for Good.

Ainsi, l’algorithme de YouTube "recommande des vidéos comprenant le nom “Asselineau” deux fois plus que celles comprenant “Poutou” et plus de deux fois plus que celles comprenant “Hamon” tandis que les intentions de vote respectives de ces candidats, telles que rapportées par les sondages, varient inversement", relève le communiqué.

Manque de transparence. L'algorithme de YouTube n'indique pas les critères retenus pour déterminer quelles vidéos s'affichent dans les recommandations, et les chercheurs de Data for Good regrette qu'il ne soit "pas transparent". "Les utilisateurs ne sont pas en mesure de voir ces tendances, ni d'expliquer ces résultats. (...) YouTube n'indique pas le nombre de fois où une vidéo a été suggérée par son algorithme", regrettent-ils.

YouTube, de son côté, s'est défendu de tout biais : "Toute insinuation selon laquelle notre algorithme serait biaisé en faveur de certains candidats est fausse. En réalité, notre algorithme recommande toutes sortes de contenus, issus des chaînes officielles des candidats, de médias ou de créateurs, reflétant toutes les opinions politiques.", a déclaré le groupe au Monde. Le manque de transparence des algorithmes, qui prennent une place importante dans nos vies, est de plus en plus questionné.