Des employés de Google lui demandent de renoncer à une collaboration avec le Pentagone

Les signataires craignent le développement des "robots-tueurs".
Les signataires craignent le développement des "robots-tueurs". © JOSH EDELSON / AFP
  • Copié
avec AFP , modifié à
"Nous pensons que Google ne devrait pas participer au commerce de la guerre", selon le texte de la pétition disponible sur internet.

Une pétition interne demandant à Google de rester en dehors du "commerce de la guerre" faisait parler d'elle mardi avec selon la presse des milliers de signatures tandis que des salariés auraient démissionné pour protester contre une collaboration du géant technologique avec l'armée américaine. Environ 4.000 employés avaient signé mardi le texte qui a commencé à circuler il y a trois mois pour exiger du groupe qu'il renonce à utiliser ses outils d'intelligence artificielle pour aider les militaires à rendre leurs drones plus efficaces pour identifier leurs cibles, selon des médias américains. Le site spécialisé Gizmodo  a aussi indiqué qu'une "douzaine" d'employés de Google avaient démissionné pour des raisons éthiques.

"Commerce de guerre". L'entreprise américaine n'a pas répondu mardi aux sollicitations de l'AFP à propos de cette collaboration désignée par les pétitionnaires sous le nom de "Projet Maven" et qui selon eux utilise l'intelligence artificielle pour aider les drones de l'armée à distinguer les humains des objets. "Nous pensons que Google ne devrait pas participer au commerce de la guerre", selon le texte de la pétition disponible sur internet. "En conséquence, nous demandons à ce que le projet Maven soit annulé et que Google rédige, rende publique et mette en oeuvre une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre", disent encore les signataires.

Problème éthique. L'"Electronic Frontier Foundation" (EFF), qui défend les droits sur internet, ainsi que le Comité international pour le contrôle des armes-robots (ICRAC), soutiennent cette pétition. Même si Google a officiellement indiqué que ses travaux destinés à améliorer la capacité des machines à reconnaître des objets n'ont pas d'objectifs offensifs, certains "documents publiés" sont inquiétants, affirmait l'EFF récemment sur son site internet.

Selon l'EFF, ces outils "signaleraient des gens ou des objets vus par les drones" pour que les images soient contrôlées par des humains et "dans certains cas, cela conduirait à des frappes de missiles sur ces personnes ou ces objets", ce qui constitue un problème éthique énorme, "même avec des humains dans la boucle". Pour l'ICRAC, cela ouvre même la voie à une suppression totale de l'intervention humaine.

"Robots-tueurs". "Si les chefs militaires voient que les algorithmes de reconnaissance d'objets sont fiables, il sera tentant de limiter voire de supprimer le contrôle humain sur ces systèmes", craint dans une lettre ouverte soutenant les signataires l'organisation qui lutte contre les "robots-tueurs" ou armes autonomes. "Nous ne sommes donc pas loin d'autoriser des drones autonomes à tuer automatiquement", sans contrôle humain, dit-elle encore.

L'ONU a lancé en avril une nouvelle série de discussions officielles sur les armes autonomes, pour tenter notamment de les définir précisément. Selon des experts, des systèmes d'armement automatisés avec la capacité d'identifier et d'éliminer des cibles sans qu'une action humaine soit nécessaire devraient prochainement être opérationnels sur les champs de bataille.