Des scientifiques pour l'interdiction des "robots tueurs"

  • A
  • A
Partagez sur :

Dans leur appel, ils alarment sur le risque que feraient peser sur l'humanité des robots capables de tuer en totale autonomie.

Ils n'existent pas encore mais pour ne pas prendre le risque de les voir apparaître, certains réclament leur interdiction. Mardi, lors de la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires, des milliers de scientifiques et de personnalités ont lancé un appel pour bannir les armes offensives autonomes, autrement appelées "robot tueurs". Le célèbre astrophysicien Stephen Hawking mais aussi Elon Musk, le patron de SpaceX, Frank Wilczek, Prix Nobel de physique ou encore Steve Wozniak, cofondateur d'Apple, craignent que ces armes de nouvelle génération se trompent de cibles ou tombent dans les mains de terroristes ou de dictateurs.

Confondre civils et soldats. "Les armes autonomes choisissent et frappent des cibles sans intervention humaine, elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires", relèvent les signataires dans une lettre ouverte. À la différence des drones qui sont pilotés à distance par des humains, les robots tueurs seraient capables, seuls, de reconnaître leur cible et d'appuyer sur la détente, sans qu'un soldat agisse en coulisses. Leurs détracteurs craignent que ces engins, doués d'une intelligence artificielle, confondent soldats et civils lors de leurs offensive ou bien ne lancent des attaques disproportionnées.

Plus facile à obtenir qu'une arme nucléaire… Autre danger pointé du doigt par les auteurs de cet appel, les "robots tueurs" ne nécessitent pas "des matières premières difficiles à obtenir", ni "de coûteux investissements". "Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique", craignent les signataires. 

drone armée PHILIPPE DESMAZES / AFP 1280x640

Les drones sont pilotés à distance au contraire de ce que pourraient être les "robots-tueurs". PHILIPPE DESMAZES / AFP


… et des avantages indiscutables. Pourtant, ces robots tueurs offrent des qualités indéniables. Leur utilisation permettraient de réduire les pertes humaines en soldats. Elles abaissent aussi "le coût d'un engagement au combat", ce qui entraînerait une nouvelle course aux armements, estiment les auteurs de l'appel.

L'appel n'est cependant pas du goût de tous. Pour Ricardo Rodríguez, chercheur en intelligence artificielle (IA) à l'Université de Buenos Aires, "Hawking croit que nous sommes au bord de l'Apocalypse avec la robotique et qu'au final, l'intelligence artificielle va entrer en concurrence avec l'intelligence humaine". Or, "on est loin de faire des robots belliqueux assassins", estime-t-il.  "Il y a vingt ans, on parlait des risques du clonage, regardez où nous en sommes aujourd'hui", rappelle-t-il.

Aujourd'hui, un humain toujours dans la boucle. Aujourd'hui, même si la recherche avance, il n'existe pas de "robots tueurs". Les armes douées d'intelligence artificielle actuellement utilisées font toujours appel à un humain à un moment ou à un autre de leur action. C'est le cas en Corée du Sud par exemple où des robots gardent la frontière avec la Corée du Nord, rapporte Libération. Fabriqués par Samsung, dotés de caméras, de mitrailleuses et de lance-grenades, ils détectent des cibles mais ne passent à l'action que sur autorisation d'un opérateur humain. Idem pour le "dôme de fer" protégeant Israël des roquettes ennemies. S'il s'arme en cas de cible détectée, seul un soldat peut valider ou pas le tir.