FAUT-IL INTERDIRE LES ARMES LÉTALES AUTONOMES ?

 

Nous sommes habitués à voir sur nos écrans des robots tueurs, qui à la manière d’un Terminator, ont l’autonomie suffisante pour tuer un humain. Ce sujet pourrait sortir du cadre de la fiction et devenir bien réel.

En effet, ces dernières années ont vu l’essor d’intelligences artificielles capables de concurrencer l’humain dans de nombreux domaines. Combinées avec les progrès des armes à distance comme les drones, elles pourraient donner naissance à des armes d’un nouveau genre. L’éventualité des systèmes d’armes létales autonomes est aujourd’hui une réalité.

Mais comment définir une telle arme ? A partir de quel degré d’automatisation et d’intelligence peut on la qualifier d’autonome ? Quelles seraient les conséquences de l’utilisation de telles armes sur le champs de bataille, en terme de juridiction et de stratégie militaire ? Quels problèmes éthiques ces armes posent-elles ?

De nombreuses contestations se dressent aujourd’hui face à de telles technologies, et des acteurs divers s’expriment en faveur ou en défaveur de leur développement. Faut-il alors interdire les systèmes d’armes létales autonomes ?


Voici une carte de la controverse qui vous permet de naviguer facilement dans ce site.

Carte de la controverse

Carte de la controverse

 

Définir une Arme Létale Autonome n’est pas mince affaire : les différents acteurs définissent de manières différentes l’autonomie, ce qui n’engendre pas la même définition d’arme autonome, créant alors un débat assez développé sur le sujet.

 

L’intelligence artificielle est l’outil qui permet en partie le développement des armes autonomes. A quels point est-il puissant ? Peut-il rendre les armes autonomes ?

 

Outre la question de la législation à adopter quant aux Armes Létales Autonomes, il faut également s’intéresser à la recherche scientifique dans ces domaines : peut-on continuer à développer des intelligences artificielles ayant vocation à tuer ?

 

On parle souvent de niveau d'autonomie d'une arme. Mais sait-on vraiment définir cette autonomie ?

 

Un robot sur un champs de bataille doit s’adapter à l’intelligence humaine qui l’entoure, la comprendre, la traiter, et agir en conséquence.

 

La faisabilité de l’introduction d’une éthique chez un robot (surtout chez un robot létal autonome) polarise la communauté scientifique ; mais ce sont surtout les conséquences de l’obtention d’un robot éthique qui divisent les différents acteurs. Un robot éthique pour un monde meilleur ou pour un scénario catastrophe ?

 

Les armes létales autonomes posent des questions morales, la controverse autour de se sujet a donc une forte dimension éthique.

 

L’erreur est humaine, et juger le responsable est aisé en cas d’infraction au vu des lois internationales et martiales. Mais qu’en est-il dans le cas d’un robot ? Qui faut-il incriminer ? De nos jours, il existe un flou juridique à ce propos dans le cas des armes autonomes.

 

Dans le cas où la décision de tuer l’ennemi n’est plus laissée à l’homme, il convient de se poser la question du déplacement de la responsabilité individuelle.

 

Ces nouvelles armes impactent fortement la législation. Puisqu'elles n'entrent dans aucun cadre il faut changer et créer une réglementation pour elles.

 

La régularisation de ces nouvelles armes peut se faire au travers d'accords internationaux et de législations débattus depuis quelques années.

 

Les Armes Létales Autonomes ont aussi des répercussions sur la guerre et sur l'aspect militaire de notre monde.

 

La réglementation internationale concernant la guerre s’appuie sur une éthique militaire définie de longue date. Cependant, la révolution des armes létales autonomes vient bouleverser ces certitudes...



D’autres moyens sont disponibles pour naviguer dans ce site :