Faut-il interdire les systèmes d’armes létales autonomes (SALA) ?

Systèmes d’armes létaux autonomesUne résolution européenne prône l’interdiction, à l’échelle internationale, des systèmes d’armes létales autonomes.

Cette résolution du Parlement européen du 12 septembre 2018 (1) demande aux États membres et au Conseil d’œuvrer au lancement de négociations internationales pour un instrument juridiquement contraignant qui interdise les systèmes d’armes létales autonomes (SALA) dont les fonctions critiques du choix et de l’attaque des cibles individuelles, échappent à un contrôle humain significatif (2).

Cette résolution défend deux positions majeures :

  • adopter en urgence une position commune sur les systèmes d’armes létales autonomes qui garantisse un véritable contrôle humain sur les fonctions critiques du système ;
  • empêcher la mise au point et la production de tout systèmes d’armes létales autonomes, autrement dit, empêcher tout programme de recherche tendant vers l’élaboration d’un système d’armes létales autonomes.

Les fondements de l’interdiction des systèmes d’armes autonomes

La résolution soulève quatre arguments :

  • les systèmes d’armes létales autonomes pourraient « modifier radicalement la façon de faire la guerre et déclencher une course aux armements débridée et sans précédent » (considérant E) ;
  • l’utilisation de systèmes d’armes létales autonomes pose des « questions éthiques et juridiques essentielles quant au contrôle exercé par l’homme, en particulier au regard de décisions critiques, telles que le choix et l’attaque de cibles » (considérant F) ;
  • l’utilisation de systèmes d’armes létales autonomes soulève des questions essentielles quant à « l’applicabilité du droit international en matière de droits de l’homme, du droit international humanitaire et des normes et valeurs européennes concernant les actions militaires futures »  (considérant I).
  • Enfin, « tout système d’armes létales autonome peut rencontrer un dysfonctionnement en raison d’un mauvais codage ou d’une cyberattaque commise par un État ennemi ou un acteur non étatique » (considérant K).

La résolution du Parlement européen (PE) a été adoptée par 566 voix pour, 47 contre et 73 abstentions. Elle prend appui sur une première étude intitulée « Human rights implication of the usage of drones and unmanned robots in warfare » du 3 mai 2013. Cette étude donnait dès 2013 un aperçu de l’utilisation actuelle et probable de drones et de robots autonomes et examinait les implications juridiques pertinentes en vertu des droits de l’homme, du droit international humanitaire et de la Charte des Nations unies.

L’étude concluait que l’incertitude – quant aux normes juridiques applicables, au développement et à la prolifération rapides des drones et de la technologie robotique, et au manque de transparence et de responsabilité des politiques actuelles – risquait de polariser la communauté internationale et de saper la règle de la loi et, en fin de compte, de déstabiliser l’environnement de sécurité international dans son ensemble.

L’étude proposait trois recommandations politiques pour la politique étrangère européenne :

  1. L’UE devrait faire de la promotion de l’état de droit en matière de développement, de prolifération et d’utilisation de systèmes d’armement sans pilote une priorité déclarée de la politique étrangère européenne ;
  2. L’étude invitait l’UE à lancer un dialogue politique intergouvernemental afin de parvenir à un consensus international :
    1. sur les normes juridiques régissant l’utilisation de systèmes d’armes sans pilote actuellement opérationnels, et
    2. sur les contraintes juridiques et / ou des réserves éthiques pouvant s’appliquer au développement, à la prolifération et à l’utilisation futurs de systèmes d’armes létaux autonomes.
  3. Sur la base du consensus international qui en résulterait, l’étude invitait l’UE à œuvrer en faveur de l’adoption d’un accord international contraignant ou d’un code de conduite non contraignant visant à restreindre le développement, la prolifération ou l’utilisation de certains systèmes d’armes sans pilote consensus obtenu.

Les débats devant le Groupe d’Experts Gouvernementaux (GEG) des États parties à la convention sur certaines armes classiques (CCW)

Depuis 2016, le débat est également engagé à l’ONU. Un groupe d’experts gouvernementaux (GEG [2]) à la convention sur certaines armes classiques a été créé en 2016 par la cinquième Conférence d’examen des parties contractantes à la Convention sur certaines armes classiques (CCW).

Le GEG s’est d’abord réuni en novembre 2017. Dans son rapport de session 2017, le GEG a conclu que :

  • la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (CCW) offrait un cadre approprié pour traiter la question des nouvelles technologies dans le domaine des systèmes d’armes létaux autonomes ;
  • le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armes, y compris à la mise au point et à l’utilisation potentielles de systèmes d’armes létaux autonomes;
  • le déploiement de tout système d’armes quel qu’il soit dans le cadre d’un conflit armé continue de relever de la responsabilité des États ;
  • le GEG devrait consacrer la prochaine phase de ses discussions à la caractérisation des systèmes d’armes létaux autonomes en question afin de dégager une conception commune des notions et des caractéristiques pertinentes au regard des objectifs et des buts de la CCW ;
  • le GEG devrait examiner plus avant les aspects de l’interaction homme-machine dans la mise au point, le déploiement et l’emploi des technologies émergentes dans le domaine des systèmes d’armes létaux autonomes.

Les principaux problèmes sur les systèmes d’armes létaux autonomes ont été abordés lors des réunions de 2018 du GEG. Ils ont portés sur :

  • la caractérisation des systèmes envisagés afin de promouvoir une compréhension commune des concepts et des caractéristiques correspondant aux objectifs et aux buts de la Convention sur certaines armes classiques ;
  • l’examen approfondi de l’élément humain dans l’utilisation de la force létale ; les aspects de l’interaction homme-machine dans le développement, le déploiement et l’utilisation de technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ;
  • l’examen des applications militaires potentielles de technologies connexes dans le contexte des travaux du Groupe.

Quels sont les principes dégagés par le GEG lors de la dernière réunion du 31.08.2018 ?

Le GEG s’est accordé sur dix principes lors de leur dernière réunion le 31 août 2018 :

  1. le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armement, y compris au développement potentiel et à l’utilisation de systèmes d’armes autonomes létaux ;
  2. la responsabilité humaine des décisions relatives à l’utilisation des systèmes d’armement doit être maintenue et la responsabilité ne peut être transférée aux machines. Cela devrait être considéré dans l’ensemble du cycle de vie du système d’arme autonome ;
  3. la responsabilité du développement, du déploiement et de l’utilisation de tout nouveau système d’armes dans le cadre de la Convention sur certaines armes classiques doit être assurée conformément au droit international applicable, notamment par le fonctionnement de tels systèmes au sein d’une chaîne humaine responsable de commandement et de contrôle ;
  4. conformément aux obligations des États en vertu du droit international, l’étude, le développement, l’acquisition ou l’adoption d’une nouvelle arme, de moyens ou de méthodes de guerre, (la détermination devant être préalable à son emploi), dans certaines ou dans toutes les circonstances, ne peut être interdit par une loi internationale ;
  5. lors du développement ou de l’acquisition de nouveaux systèmes d’armes basés sur des technologies émergentes dans le domaine des SALA, la sécurité physique, les garanties non physiques appropriées (y compris la cybersécurité contre le piratage informatique ou l’usurpation de données), le risque d’acquisition par des groupes terroristes et le risque de prolifération doivent être considérés ;
  6. les évaluations des risques et les mesures d’atténuation devraient faire partie du cycle de conception, de développement, de test et de déploiement des technologies émergentes dans tous les systèmes d’armes ;
  7. l’utilisation de technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers doit être envisagée avec pour objectif le respect du droit international humanitaire et les autres obligations juridiques internationales applicables ;
  8. lors de l’élaboration de mesures politiques potentielles, les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ne devraient pas être anthropomorphisées ;
  9. les discussions et les mesures politiques éventuelles prises dans le cadre de la Convention ne devraient pas entraver les progrès ou l’accès aux utilisations pacifiques des technologies autonomes intelligentes ;
  10. la Convention sur certaines armes classiques offre un cadre approprié pour traiter la question des technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers dans le contexte des objectifs et buts de la Convention, qui cherchent à établir un équilibre entre nécessité militaire et considérations humanitaires.

Quelle est la position de l’Allemagne et de la France sur les systèmes d’armes létaux autonomes ?

Lors des réunions du GEG en novembre 2017, l’Allemagne et la France ont formulé dans un document de travail plusieurs propositions, notamment la définition du périmètre de travail des systèmes d’armes létaux autonomes (SALA).

L’Allemagne et la France proposent d’exclure de la définition de SALA :

Les systèmes pilotés à distance et automatisés, les systèmes porteurs de charges conventionnelles explosant avec une minuterie réglée, les systèmes téléopérés (par exemple des drones), les systèmes automatisés de défense antimissile, les torpilles, les systèmes de guidage et de navigation ainsi que les systèmes de surveillance et de détection.

L’Allemagne et la France considèrent en outre que la question de la définition même de « SALA » évoluera avec les progrès technologiques. La définition exacte qui pourra être adoptée à un stade ultérieur, dépendra également de la question de savoir quels types de mesures réglementaires sont recherchés et quel statut politique ou juridique devraient avoir ces SALA.

Dans leur déclaration politique commune, l’Allemagne et la France ont affirmé qu’elles partageaient la conviction que les humains devraient continuer à être en mesure de prendre les décisions finales concernant l’utilisation de la force létale et devrait continuer à exercer un contrôle suffisant. En outre, les États parties devraient rappeler que les règles du droit international, en particulier droit international humanitaire, s’appliquent pleinement au développement et à l’utilisation des SALA.

Quelles est la position des États-Unis sur les systèmes d’armes létaux autonomes ?

Contrairement à l’Allemagne et la France, les Etats-Unis estiment qu’il n’est pas nécessaire que le GEG adopte une définition de travail des SALA. Au lieu de cela, les Etats-Unis soutiennent la promotion d’une compréhension générale des caractéristiques des SALA. Pour les Etats-Unis, l’absence d’une définition de travail spécifique n’est pas une cause devant pénaliser les travaux du GEG dans la compréhension des problèmes potentiels posés par les SALA. Le droit de la guerre fournit un système de réglementation solide et cohérent pour les armes. Par conséquent, le GEG peut discuter des problèmes que posent potentiellement les « SALA » sous l’objectif de la Convention sur certaines armes classiques (CCW) sans devoir se mettre d’accord sur une définition de travail spécifique des SALA.

Les règles existantes d’application générale s’appliquent à l’utilisation de toutes les armes, y compris pour toute arme réputée être des « systèmes d’armes létaux autonomes ».

Les Etats-Unis ont également émis dans deux documents de travail distincts (WP.6 et WP.7) les positions suivantes :

  • le droit de la guerre n’exige pas qu’une arme, même une arme semi-autonome ou autonome, procède à des déterminations légales. Pour les USA, le droit de la guerre n’exige pas qu’une arme détermine si sa cible est un objectif militaire, mais plutôt que l’arme puisse être employée conformément au principe de distinction. De même, le droit de la guerre n’exige pas qu’une arme établisse des déterminations de proportionnalité, par exemple si l’on s’attend à ce qu’une attaque entraîne des dommages accidentels à des civils ou à des biens civils excessifs par rapport à l’avantage militaire concret et direct attendu ;
  • les machines ne sont pas des États ou des personnes en vertu de la loi. Les questions de responsabilité juridique sont des questions sur la manière dont les principes existants et bien établis en matière de responsabilité des États et des individus s’appliquent aux États et aux personnes qui utilisent des systèmes d’armes dotés de fonctions autonomes ;
  • les États sont responsables des actes des personnes faisant partie de leurs forces armées. Il s’ensuit que les États sont responsables de l’emploi d’armes à fonctions autonomes par des personnes faisant partie de leurs forces armées ainsi que d’autres actes de ce type pouvant être imputables à un État en vertu du droit de la responsabilité des États. Les États, en garantissant la responsabilité de tels comportements, peuvent recourir à divers mécanismes, notamment les enquêtes, la responsabilité pénale individuelle, la responsabilité civile et les mesures disciplinaires internes ;
  • comme pour toutes les décisions d’utiliser des systèmes d’armes, les personnes sont responsables de leurs décisions individuelles d’utiliser des armes avec des fonctions autonomes. Ainsi, les personnes qui utilisent des armes ayant des fonctions autonomes pour violer l’interdiction de cibler la population civile peuvent être tenues responsables de telles violations ;
  • les responsabilités de toute personne appartenant à un État ou à une partie au conflit peuvent dépendre du rôle de cette personne dans l’organisation ou des opérations militaires. De manière générale, les personnes chargées de mettre en œuvre une partie à un conflit ont l’obligation de prendre les décisions et jugements nécessaires requis par cette obligation internationale. A titre d’exemple, une partie à un conflit a l’obligation de prendre des précautions réalisables pour réduire les risques pour les civils, par exemple en émettant des avertissements avant les attaques. Le commandant compétent chargé de l’attaque déterminera s’il est possible de fournir un tel avertissement.

Quelle est la position de la Fédération de Russie sur les systèmes d’armes létaux autonomes ?

La Fédération de Russie a également fait part de sa position dans un document de travail (WP.8) dans lequel :

  • La Fédération de Russie estime que le GEG pourrait procéder à un examen approfondi des dispositions existantes du droit international, y compris le droit international humanitaire et les droits de l’homme qui pourrait éventuellement être appliqué aux SALA.
  • La Fédération de Russie part du principe que l’examen de nouvelles questions au sein de la CCW devraient être réalisé, en tenant compte à la fois des préoccupations humanitaires et de la défense légitime des intérêts des États. Cela dit, la nécessité de répondre aux préoccupations humanitaires ne peut être utilisée comme seule et unique condition suffisante pour imposer des régimes restrictifs et prohibitifs de certaines armes.

Résolution du PE : une prise de position hâtive qui prive d’intérêt le travail du GEG

Hormis avoir confirmé que les systèmes d’armes létales autonomes n’existent pas aujourd’hui ou encore que les systèmes automatisés ne devraient pas être assimilés à des systèmes d’armes létales autonomes, le Parlement européen ne semble pas avoir pris en compte l’ensemble des réflexions menées par le GEG.

En effet, la volonté de confirmer le principe d’une interdiction des systèmes d’armes létales autonomes avant la tenue de la réunion du GEG, prévue en novembre 2018, remet en cause la raison d’être de ce groupe.

Dans un contexte où la technologie entre une fois de plus en conflit avec l’éthique, faut-il y voir la volonté d’adopter une résolution guidée davantage par des convictions morales que par des considérations rationnelles ?

La nomination d’experts gouvernementaux répondait à un objectif précis que semble négliger le Parlement européen : allier la réalité des enjeux technologiques avec les considérations éthiques et juridiques.

La volonté d’adoption d’une position commune européenne et d’un instrument juridique contraignant au niveau international prônant l’interdiction des systèmes d’armes létales autonomes pourrait n’avoir qu’un effet symbolique.

En effet, elle se heurterait au principe de réalité.

A supposer qu’une telle position commune européenne se concrétise un jour, elle serait en total décalage avec les ambitions potentielles de pays tels que la Chine, les Etats-Unis, la Fédération de Russie, l’Inde ou encore l’Arabie Saoudite.

Comment l’Europe pourra répondre de cette décision le jour où, dans une opération de défense pour la paix, elle enverra son armée d’hommes et de femmes se battre contre des systèmes d’armes létales autonomes, développés par des Etats ne partageant pas ses considérations politiques et éthiques.

Il semblerait donc nécessaire que le Parlement européen travaille de concert avec le groupement d’experts gouvernementaux afin qu’une solution la plus réaliste et rationnelle possible puisse être conçue intégrant les principes et valeurs fondateurs de l’Europe.

L’Europe doit peser dans les débats sur les systèmes d’armes létales autonomes pour maintenir son influence au niveau international.

Didier Gazagne
Alix Desies
Lexing Défense & SécuritéDrones

(1) Résolution du Parlement européen du 12 septembre 2018 sur les systèmes d’armes autonomes (2018/2752(RSP)).
(2) Groupe d’experts gouvernementaux, GEG en français ou GGE en anglais.

Retour en haut