Thales appelle à interdire les "robots tueurs" équipés d'intelligence artificielle

Thales a ouvert un laboratoire employant 50 ingénieurs spécialisés en IA à Montréal.
Thales a ouvert un laboratoire employant 50 ingénieurs spécialisés en IA à Montréal. © KYLE GRILLOT / AFP
  • Copié
avec AFP , modifié à
Le PDG du groupe technologique français a appelé jeudi la communauté internationale à mettre en place un "cadre réglementaire fort" pour interdire la création d'armes létales autonomes. 

Face au développement rapide de l'intelligence artificielle (IA), il est urgent que la communauté internationale se dote d'un cadre réglementaire fort pour proscrire la création de "robots tueurs" autonomes, a plaidé jeudi le PDG du groupe technologique français Thales, Patrice Caine.

"C'est le moment d'avancer". "Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous" en ce qui concerne l'application de l'IA au domaine de l'armement, a-t-il fait valoir. "C'est vrai qu'il y a des discussions sur ce sujet là aux Nations unies" et que "globalement, il y a une volonté, mais ça prend du temps", a-t-il relevé à l'occasion de la présentation à la presse du laboratoire de Thales spécialisé dans l'intelligence artificielle, à Montréal. 

"C'est le moment d'avancer", a insisté le patron français, estimant que cette question faisait "consensus pour tous les grands pays occidentaux démocratiques".

Thales a ouvert il y a un an un laboratoire employant 50 ingénieurs spécialisés en IA au coeur de la métropole québécoise, dans un quartier où affluent grandes entreprises, chercheurs et start-up travaillant sur cette haute technologie reposant sur l'exploitation de multiples données par des algorithmes puissants.

Thales n'appliquera pas l'IA "dans tout ce qui est létal". Aux côtés de Patrice Caine, Yoshua Bengio, pionnier canadien de l'IA, a appuyé cet appel à rapidement se doter d'un cadre réglementaire clair. "Il y a deux aspects à considérer à propos des armes létales autonomes, qu'on surnomme les 'robots tueurs' et qui n'ont rien d'un film mais constituent au contraire un enjeu actuel pour les armées : il y a l'aspect moral et l'aspect sécuritaire", a fait valoir le chercheur, fondateur de l'institut de recherche Mila (Montreal Institute for Learning Algorithms).

Pour toutes ces raisons, Thales a tranché : le groupe français "n'appliquera pas l'IA dans tout ce qui est létal (même) si les clients le demandent", a affirmé son PDG. Pas question de "donner de l'autonomie à un système d'armes pour que de lui-même il puisse décider de tuer ou pas", a-t-il insisté.