Faut-il continuer la recherche ?

Les progrès réalisés dans le domaine de l’intelligence artificielle permettent aujourd’hui de considérer les armes létales autonomes comme tout à fait réalisables sur un plan technique. On peut alors se demander quelle législation adapter quant à la recherche dans ces domaines d’automatisation et d’intelligence artificielle.

Les robots armés qui existent aujourd’hui ne sont pas à proprement parler autonomes et nécessitent l’intervention d’un humain, à l’image des drones qui restent pilotés à distance, en particulier pour lancer les attaques. Ce point est développé dans la section “Autonomie” du site. Ainsi, un véhicule comme le SWORD de l’armée américaine est muni d’armes et de chenilles pour se déplacer. Avec les programmes d’intelligence artificielle existant aujourd’hui, il pourrait être automatisé pour ne plus avoir besoin de l’humain pour mener à bien ces missions. C’est d’ailleurs l’ambition de l’armée américaine pour ce robot.

Robot SWORD

Anis Sahbani, fondateur et PDG d’Enova Robotics, estime que :

La technologie est mature. Pour l’instant, on a encore des drones pilotés par des humains, qui doivent décider de tuer ou pas. Mais le gap est minime.

Quoi qu’il en soit, même si la technologie est accessible aujourd’hui, la recherche dans ce domaine n’en est pas moins finie, et rendre ces armes plus efficaces, plus précises, nécessitent une réelle contribution scientifique, et donc des recherches et des investissements. De telles recherches ne sont pour autant pas considérées comme éthiques.


Le cas Google : Les employés de Google se sont insurgé contre le géant américain à la suite de l’annonce de la collaboration de celui-ci avec le Pentagone dans le cadre d’un projet d’armes autonomes. Suite à la pétition de 4000 employés, Google a dû s’engager à ne pas utiliser l’intelligence artificielle pour la fabrication d’armes (Le Point). Google ne va cependant pas cesser sa collaboration avec le Pentagone, dans le domaine de la sécurité en particulier, le but étant pour eux de développer une IA “éthique”.


Ainsi, des experts scientifiques ont boycotté début 2018 l’université Sud-Coréenne KAIST après l’annonce d’une collaboration entre cette université et un fabricant d’armes dans le domaine de l’intelligence artificielle. (Le Monde, 2018)

Ces décisions n’empêchent cependant pas les recherches en intelligence artificielle de se poursuivre, de même pour les recherches en robotiques. Selon Brice Erbland, militaire et auteur de Robots Tueurs, quelques soient les réglementations en vigueur, il n’est pas difficile de les contourner pour adapter la recherche au développement de robots qui pourraient potentiellement devenir des robots tueurs, sans les en qualifier directement ainsi.

D’ailleurs, Google a minutieusement choisis ses termes en s’opposant au développement d’armes létales autonomes : Il refusent ainsi d’appliquer leurs technologie à des armes, des systèmes de surveillance illégales et de technologies pouvant porter “un préjudice globale”, il reste possible pour la firme américaine de conduire des développements allant dans ce sens, pour peu qu’ils  Google continuera par ailleurs à travailler avec l’armée américaine.

Ainsi, il n’est pas impossible d’avoir un double discours à l’égard des armes létales autonomes, et de la condamner tout en ayant une politique de développement en parallèle.

Vous avez parcouru toute la branche :