Journée internationale des droits des femmes : l'intelligence artificielle est-elle sexiste ?

, modifié à
  • A
  • A
Voir la vidéo sur Dailymotion
Partagez sur :
D'après plusieurs études, l'intelligence artificielle nichée au cœur de nos logiciels préférés peut être sexiste. Et il suffit de deux clics pour avoir la preuve de la vision genrée de notre société par ces programmes créés par une majorité d'hommes. 

Le sexisme se glisse-t-il au plus profond des lignes de code de nos logiciels préférés ? A en croire les études menées par plusieurs chercheurs sur les objets connectés qui envahissent nos maisons, oui. Il semble que, comme un enfant, l'intelligence artificielle reproduit ce qu'elle voit, en l'occurrence les inégalités entre les hommes et les femmes de notre société.

Pour Google, médecin est un métier d'hommes. Pour avoir la preuve que l'intelligence artificielle est sexiste, il suffit simplement de se rendre sur Google Traduction. Si vous tapez "a doctor" dans le logiciel, il vous propose comme traduction "un médecin". A contrario "a nurse" est traduit par "une infirmière". Pourtant, il existe des femmes médecins et des hommes infirmiers, mais Google ne semble pas en tenir compte, et a donc une vision genrée de notre société. "80% des professionnels au sein des géants high-tech comme les GAFA [Google, Apple, Facebook, Amazon, ndlr] sont des hommes", explique Laurence Devilliers, chercheuse au CNRS. Une statistique qui expliquerait le sexisme de l'intelligence artificielle. 

>> De 5h à 7h, c’est “Debout les copains” avec Matthieu Noël sur Europe 1. Retrouvez le replay de l'émission ici

"Cela soulève des questions fondamentales sur la façon dont la société va se construire elle-même, parce que l'intelligence artificielle va être de plus en plus développée un peu partout, dans les transports, l'éducation...", analyse la spécialiste au micro d'Europe 1. "Cela est assez gênant, il est urgent d'aborder ces problèmes et de travailler sur les stéréotypes", plaide Laurence Devilliers.

Un sexisme déjà épinglé à plusieurs reprises. D'autant que ce n'est pas la première fois qu'un service proposé par Google se fait épingler pour sexisme. Le site spécialisé Numéramarapporte qu'en novembre dernier, la filiale d'Alphabet a dû corriger son système Smart Compose, qui permet de suggérer des phrases lors de la rédaction de mails, suite à un souci de genre. Un mois plus tôt, c'est un logiciel de recrutement automatique mis au point par Amazon qui a fait des siennes en favorisant purement et simplement les CV masculins, explique Slate. Les développeurs avaient mis au point cette intelligence artificielle en la "nourrissant" avec les données des recrutements d'Amazon, et comme la société de Jeff Bezos est composée, selon Reuters, de 60% d'hommes, le logiciel pénalisait les femmes. 

Une fois l'anomalie détectée, Amazon a apporté les corrections nécessaires avant d'abandonner son algorithme à la fin de l'année 2018, pour s'assurer que cela ne se reproduise plus. Mais selon l'agence de presse Reuters, cette mauvaise expérience n'a pas pour autant fait reculer Amazon dans sa volonté d'automatiser ses recrutements. 

Europe 1
Par Maud Descamps, édité par Ugo Pascolo

Les + lus