Drones armés : une prise de conscience française confirmée

drones armés

Drones armés : la conformité au droit international. La France s’apprête à se doter de drones armés dans le contexte  des débats du Groupe d’experts gouvernementaux à l’ONU (1).

Notre précédent billet* mettait l’accent sur la difficile définition des systèmes d’armes létales autonomes (SALA). Ce second billet a pour objet l’analyse de la conformité de tels systèmes au droit international.

La conformité des drones armés au droit international

Il existe une confusion récurrente entre le drone armé, vecteur d’armes en tant que tel, et l’utilisation qui en est faite. Le rapport n°559 (2) a également tenté de clarifier cela : « Ii y a confusion entre une arme et la manière de s’en servir ».

Quatre aspects sont à distinguer :

  • la légalité des drones armés ;
  • la légalité de l’usage de drones armés par la France ;
  • la légalité prospective des SALA ;
  • la légitime défense : l’image ternie des drones armés découlant de leur usage par les américains.

1° De la légalité des drones armés

Le rapport n°559 affirme que le drone n’est pas en soi contraire au droit international de sorte que son interdiction serait non fondée. La problématique est pourtant mal formulée. Les rapporteurs affirment que « l’utilisation de drones armés n’est pas par nature contraire au droit international ». Bien au contraire. Si le drone n’est pas illégal par nature, en ce qu’il n’est qu’un vecteur d’armes, c’est justement son utilisation qui peut enfreindre le droit international.

Une seconde incohérence est à relever : tout en défendant l’idée que le drone n’est pas par nature illégal, les rapporteurs admettent que « les caractéristiques en termes de fiabilité (des drones) sont mal connues ». Or, c’était précisément ce point qu’il fallait clarifier afin de tarir les principales contestations.

2° De l’usage légal des drones armés par la France

Le Sénat a pu affirmer dans son rapport n° 559 que l’usage des drones armés par la France n’enfreindra pas les principes internationaux : « Les forces françaises, notamment à travers l’application des règles d’engagement fixées pour chaque opex, doivent respecter l’ensemble de ce corpus juridique » (Rapport n° 559, note 4 p. 50).

L’emploi de drones armés sera encadré de la même façon que n’importe quelle arme de guerre par des règles d’engagement : « La « chaîne d’engagement » pour une opération où le drone tire lui-même serait identique à celle en vigueur pour toutes les opérations déjà menées par des avions de combat ou par un couple drone-avion de combat. C’est cette chaîne d’engagement qui garantit la légalité et la légitimité de la mission. Elle repose sur un processus précis d’identification de la cible, de vérification des règles d’engagement, d’estimation préalable des dommages collatéraux, et, enfin, de décision par l’autorité en charge sur le théâtre d’opérations ».

Les règles d’engagement sont telles qu’à chaque action, l’analyse de terrain doit permettre d’apprécier la proportionnalité de l’offensive, sa nécessité et assurer la distinction entre combattants et non combattants. Sur ce dernier point, le système de drone armé devrait assurer le respect du principe de distinction. Ses charges utiles lui permettent d’obtenir les informations en temps réel et de procéder à un tir d’opportunité instantané après analyse des possibles dommages collatéraux. Du fait de la prédominance ces dernières années des conflits asymétriques, cette capacité de distinction devient une nécessité (3).

3° De la légalité prospective des SALA

Le droit des conflits armés ne semble pas remis en question du seul fait de la présence des drones armés existants. En revanche, la question pourra se poser pour les SALA. Néanmoins, l’article 36 de la Convention de Genève est une première protection au dévoiement des nouvelles technologies en matière d’armement. En vertu de cet article, les nouvelles armes pourront être déployées une fois leur capacité à se conformer au droit international démontrée.

Le Groupe d’experts gouvernementaux sur les SALA devraient ouvrir la voie à l’identification d’une réglementation dans le contexte des objectifs et des buts de la Convention sur certaines armes classiques. La publication d’un code de conduite apparaît comme une solution première.

Des exemples de principes ont été suggérés :

  • N’utiliser les SALA que contre certains objectifs militaires ;
  • En cas de doute, ne pas tirer ;
  • Prévoir un système de désactivation à distance ;
  • Faire application du principe de subsidiarité.

4° De la légitime défense : l’image ternie des drones armés découlant de leur usage par les américains

Il est vrai que les opérations américaines au Moyen-Orient ont suscité de vifs débats quant à la conformité des drones au droit international. En réalité, ces critiques sont teintées par le caractère illégitime des interventions américaines dénoncées. Le débat sur le recours à la force des Etats-Unis se confond donc avec celui sur la légalité des drones en tant qu’arme.

En effet, le débat ne concerne plus les drones mais le droit d’ingérence d’un pays tiers. A cet égard, le rapport prend le soin de distinguer les opérations françaises des opérations américaines, sources premières de critiques. Pourtant, c’est sur les mêmes fondements que la France justifie son recours à la force, par exemple « en s’appuyant sur les notions de légitime défense contre des acteurs non étatiques et le consentement des États à autoriser ces opérations sur leur territoire ».

Les interventions en Centre-Afrique, au Mali et Irak ont ainsi été justifiées. Toutefois, « dans le cas de la Syrie, il n’existait ni demande de la part de l’Etat syrien, ni résolution du Conseil de sécurité de l’ONU. C’est donc sur le fondement de la légitime défense que la France est intervenue. La notion de légitime défense peut être invoquée, dans la conception française, en réponse à une attaque armée dépassant un certain seuil de gravité, ce qui était assurément le cas des actions menées par Daesh. Il s’agit cependant, non de la légitime défense individuelle, mais de la légitime défense collective : l’Irak a fait l’objet d’une agression armée de la part de Daesh et l’Irak a demandé l’assistance de la communauté internationale. Ainsi, l’intervention en Syrie doit être considérée comme la prolongation de l’intervention menée en Irak à la demande des autorités de ce pays ».

Cette appréciation de la légitime défense française semble tout aussi subjective et extensive que celle invoquée par les Etats-Unis et que le Sénat ne manque pas de mettre en doute : « Il existe en effet dans certains cas des doutes sérieux sur le respect (par les américains) du cadre fixé par le droit international : frappes menées par les services de renseignement, invocation d’une légitime défense comprise de manière très extensive » (Rapport n°559, p. 51 & 52, Partie II, C, 2). Ainsi, par analogie à la critique portée sur l’appréciation de la légitime défense revendiquée par les américains, la justification de l’intervention française en Syrie pour légitime défense paraît tout aussi contestable. Mais ceci est un autre débat.

L’essentiel est que la France s’est saisie de la question des drones armés. De nombreuses questions restent encore sans réponse. Ces difficultés attestent finalement d’un droit international qui ne correspond plus totalement à la réalité des conflits et aux intérêts des grandes puissances.

Didier Gazagne
Alix Desies
Lexing Défense et sécurité – Drones

* Notre précédent billet mettait l’accent sur la difficile définition des systèmes d’armes létales autonomes (SALA) : « Drones armés – Une prise de conscience française confirmée : une notion aux contours mal définis  » (paru le 08-10-2018).

(1) Compte rendu de la réunion d’experts sur certaines armes classiques de mai 2014.
(2) Rapport d’information n°559 « Drones d’observation et drones armés : un enjeu de souveraineté », Doc. Sénat, 23-5-2017.
(3) Pour aller plus loin : Minilex, Droit des systèmes autonomes, Edition Larcier, à paraître en 2019.
(3) Article précédent : « Drones armés,  une prise de conscience française confirmée (1/2) : une notion aux contours mal définis » du 8-10-2018.
(3) Article sur les SALA : « Faut-il interdire les systèmes d’armes létales autonomes (SALA) ? » du 28-9-2018.




Drones armés : une prise de conscience française confirmée

Drones armés : une notion aux contours mal définis. Restée longtemps à l’écart, la France s’apprête à armer ses drones aériens.

Tandis que ses alliés déployaient des drones armés et recevaient la foudre des opposants, la France était restée jusqu’en 2017 dans l’expectative.

Il est cependant constant que les avancées technologiques deviennent incontournables. Leurs applications militaires visant à assurer une supériorité opérationnelle, bien qu’éphémère, ne  peuvent rationnellement être négligées.

Les craintes que suscite l’armement d’un système autonome sont légitimes. Toutefois, elles doivent être tempérées pour comprendre les enjeux, les risques et les avantages.

A cet égard, le rapport d’information n°559 de la Commission des affaires étrangères, de la défense et des forces armées, publié le 23 mai 2017 (1), avait apporté une première réponse pour défendre la position française, favorable à ce nouveau système d’armes. L’objectif était double : démêler les amalgames technologiques et juridiques sur les drones armés et démontrer leur conformité au droit international.

Le rapport d’information n°996 de la Commission de la défense nationale et des forces armées du 30 mai 2018 (2) s’aligne sur le premier rapport. Il souligne notamment l’importance de l’intégration du numérique dans les systèmes d’armes.

L’armement des drones présente des avantages stratégiques indéniables. En revanche, son cadre juridique mérite d’être clarifié, dans la mesure où le sujet reste toujours source de débat.

La nécessité d’ouvrir le dossier sur les drones armés : la reconnaissance d’une capacité opérationnelle accrue

Les nombreuses objections portées à l’encontre des drones armés avaient dissuadé, dans un premier temps, une France écartelée dans ses choix budgétaires.

S’il est évident que des questions d’éthique se posent, la prudence ne doit pas être un facteur paralysant. Les hésitations des uns permettent aux autres de les devancer. Dans le cas présent, une dizaine de pays emploient déjà des drones armés, consacrant ainsi le retard français.

Certes, la détention de drones armés par des pays étrangers n’est pas une justification suffisante d’un point de vue éthique. Dans le rapport n°559, la France s’est donc attachée à défendre, de façon pragmatique, l’avantage militaire que conférerait l’armement des drones. Parmi ses avantages, nous en avons retenu au moins quatre.

1° La réduction de la boucle décisionnelle

Dans un premier temps, « les drones (de renseignement) sont déjà fortement engagés dans les missions de tir ». Ils sont devenus un maillon essentiel à l’usage de la force armée. Ainsi, leur armement ne ferait que « réduire la boucle de décision entre le repérage d’un objectif à haute valeur ajoutée et sa neutralisation ». Les drones attendront le moment le plus opportun pour un tir de précision et analyseront les effets en temps réel. L’avantage stratégique en sera d’autant renforcé que leur capacité d’endurance est cinq fois plus importante que celle des avions traditionnels.

2° L’optimisation des ressources rares

Dans un deuxième temps, utiliser les drones armés permettrait d’optimiser les ressources rares que sont les avions de chasse. « Ces capacités seront soulagées dans des missions ne nécessitant pas une importante puissance de feu ».

3° La protection des pilotes

Dans un troisième temps, l’argument récurrent est celui du moindre risque pour le pilote. Cet avantage reste relatif car l’usage d’un drone armé ne s’envisage pour l’heure qu’en zones permissives.

4° Un emploi limité

Enfin, cet armement ne serait envisagé que dans « certains cas ». Ces cas seraient limités aux applications présentant un avantage tactique ou stratégique sur le terrain. La question de l’armement ne concernerait que les drones MALE et les minis-drones explosifs. L’armement des drones tactiques n’est, quant à lui, pas envisagé. Ainsi, les drones armés se voient conférer le rôle d’un outil complémentaire – et non de substitution – utilisé selon les règles de la guerre.

Ces réflexions ne font que recentrer le débat, comme de nombreux experts ont pu le faire, sur la place des drones armés.

Malgré les efforts de concision entrepris par les rapporteurs, nous pouvons regretter, si ce ne sont des amalgames, du moins un manque de clarté dans les explications apportées. Ces imprécisions portent pourtant sur des éléments clés de compréhension des enjeux des drones armés. La plus surprenante est la distinction opérée entre les drones, d’une part, et les robots (« autonomes »), d’autre part. Cette distinction n’est ni claire, ni réellement expliquée.

Drones armés : une distinction à clarifier entre « drones » et « robots autonomes »

Compte tenu de l’importance de la controverse, le rapport n°559 cherche à édulcorer sa position. Il corrige ainsi l’idée reçue selon laquelle le drone n’est pas un aéronef sans pilote mais un aéronef piloté à distance.

Reste à savoir ce que l’on entend par « pilote ». S’agit-il de l’individu ou de l’action de l’individu ? Dans la première hypothèse, le drone est bien sans pilote (humain) à son bord. En revanche, dans la seconde, le drone est effectivement piloté à distance. En rejetant la notion de « sans pilote », cette nuance cherche, en réalité, à rassurer l’opinion publique, qui pourrait l’entendre comme un objet non contrôlé. Cette précision a donc son importance.

Cependant, par la suite et sur la base de cette précision, le Sénat distingue le concept de drone de celui de robot. Il attribue à ce dernier une nouvelle définition pour le moins contestable. Ainsi, le drone serait toujours piloté (à distance) alors que le robot, « engin autonome », ne le serait pas.

« Il convient de bien distinguer les systèmes pilotés que sont les drones des armes dites autonomes (robots) » (Rapport d’information n°559, p. 45).

En consacrant l’autonomie comme caractéristique différenciatrice entre le drone et le robot, le rapport n°559 commet une erreur fondamentale. Cette incohérence représente parfaitement la difficulté à la base de l’ensemble des débats entourant les drones armés. Les défenseurs et opposants aux drones armés débattent sur un objet pour lequel il n’existe aucune définition consensuelle, notamment en ce qui concerne son autonomie.

La notion d’autonomie peut revêtir de nombreuses définitions puisqu’il existe différents degrés d’autonomie selon le degré de contrôle humain. Ces niveaux dépendent également de la complexité du système, de sa capacité à percevoir son environnement et à agir en fonction, sans intervention tierce.

Ceci suppose de revenir sur les deux assertions contenues dans le rapport :

1° Le robot serait parfaitement autonome et n’existerait pas à ce jour

Pour le distinguer des drones, le rapport octroie à la notion de robot le caractère d’autonomie totale. Or, il affirme que cette pleine autonomie n’existe pas encore. Par déduction, le robot n’existerait pas ? Cette approche est fausse. De nombreux robots sont en usage depuis longtemps dans les usines, dans les armées, dans les hôpitaux et dans les entrepôts.

L’Atilf (2) définit le robot comme un « appareil effectuant, grâce à un système de commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique ou domestique ».

Si un robot peut effectuer une tâche de manière autonome, il y aura toujours un être humain maintenant dessus un certain contrôle : dans la programmation de la tâche comme dans la surveillance de son exécution. La mission du robot est précise et toujours limitée, restreignant de fait son caractère autonome.

Caractériser le robot comme étant seulement un système pleinement autonome est par conséquent inapproprié.

2° Le drone est toujours piloté

S’il est vrai que le drone est toujours piloté (à distance), de la même façon que le robot, ce pilotage peut être manuel ou automatique. Certains avions de ligne évoluent en mode autonome, même en présence du pilote.

Le drone et le robot peuvent tous deux fonctionner en mode automatique, voire autonome. L’homme reste toujours au minimum sur la boucle, soit dans le pilotage, soit dans la programmation de la mission, soit dans la supervision. En conséquence, distinguer les deux systèmes de la sorte est un défaut d’appréciation car les deux sont de même nature ; aucun n’étant encore totalement autonome.

Dans le rapport n°559 [Partie II, C, 2), b), p. 51-52], il s’avère que le groupe de travail n’a en réalité employé la notion de robot qu’en référence aux systèmes d’armes létales autonomes (SALA), cœur de la polémique. Entamer une réflexion sur la distinction entre drones et SALA est essentiel pour rationaliser le débat. Seulement, l’emploi du terme « robot » pour définir exclusivement les SALA est un abus de langage pouvant induire à des confusions inutiles alors que le débat est déjà complexe.

La difficile définition des SALA

Les réflexions actuelles autour des SALA concernent pour partie leur définition, notamment leur degré d’autonomie. Le compte rendu de la réunion d’experts sur certaines armes classiques de mai 2014 atteste de cette difficulté.

Il a été globalement admis que le caractère autonome pouvait dépendre des fonctions de l’appareil, de l’environnement dans lequel il a vocation à opérer et de la complexité des tâches envisagées. Mais cette base d’appréciation est indéfinie. Certains experts ont ainsi recommandé que l’appréciation de l’autonomie dépende de critères objectifs clés. Par exemple, en matière d’armes autonomes, l’élément déterminant est leur capacité à cibler et à engager le tir sans intervention humaine.

D’autres intervenants ont insisté sur l’importance de prendre en compte l’«implication humaine appropriée» pour aborder la question de l’autonomie. Ici, le caractère autonome dépendrait de l’existence ou non d’un contrôle humain sur les « fonctions critiques » du SALA.

Dans son intervention à la réunion d’experts d’avril 2016 sur les SALA, la France avait estimé que l’autonomie caractéristique d’un SALA devait être entendue comme « complète ». C’est-à-dire «sans aucune forme de supervision humaine à partir de l’activation du système » (3).

Lors de la 5ème Conférence d’examen de la Convention sur certaines armes classiques de décembre 2016, un groupe d’experts gouvernementaux (GEG) a été créé. Il a pour mission de travailler, entre autres, sur les caractéristiques de l’autonomie des SALA, ainsi que sur leur réglementation.

Depuis sa constitution, le groupe d’experts s’est réuni à trois reprises. Ainsi, à la date du 31 août 2018, le GEG reprend la position de la France et raisonne par la négative (4). Tout système d’arme qu’il qualifie de non autonome se trouve exclu de son périmètre de réflexion. Il s’agit de «systèmes d’armes automatisés ou téléopérés, c’est-à-dire qui mettent l’intelligence artificielle au service de la décision de l’homme».  A ces systèmes, s’opposent donc «les SALA qu’il convient de concevoir comme des systèmes pleinement autonomes».

Par conséquent et pour l’heure, les SALA sont des «systèmes qui n’existent pas encore» et pour lesquels «l’autonomie doit être entendue comme complète, c’est-à-dire sans aucune forme de supervision humaine à partir de l’activation du système et une absence de subordination à une chaîne de commandement» (4).

Didier Gazagne
Alix Desies
Lexing Défense & SécuritéDrones

NB : Cet article sera suivi d’un second billet ayant pour objet l’analyse de la conformité de tels systèmes au droit international :  « Drones armés – Une prise de conscience française confirmée : la conformité au droit international  » (à paraître le 18-10-2018).

(1) Rapport d’information n°559 « Drones d’observation et drones armés : un enjeu de souveraineté », Doc. Sénat, 23-5-2017.
(2)  Rapport d’information n°996 « Les enjeux de la numérisation des armées », Doc. Ass. Nat., 30-5-2018.
(3) Réunion d’experts sur les systèmes d’armes létaux autonomes (SALA), Genève 11-15 avril 2016, Intervention française.
(4) « Caractérisation », discours de la France du 28 août 2018 lors de la réunion du Groupe d’experts gouvernementaux (Genève 27-31 août 2018), Convention sur certaines armes classiques.




Faut-il interdire les systèmes d’armes létales autonomes (SALA) ?

Systèmes d’armes létaux autonomesUne résolution européenne prône l’interdiction, à l’échelle internationale, des systèmes d’armes létales autonomes.

Cette résolution du Parlement européen du 12 septembre 2018 (1) demande aux États membres et au Conseil d’œuvrer au lancement de négociations internationales pour un instrument juridiquement contraignant qui interdise les systèmes d’armes létales autonomes (SALA) dont les fonctions critiques du choix et de l’attaque des cibles individuelles, échappent à un contrôle humain significatif (2).

Cette résolution défend deux positions majeures :

  • adopter en urgence une position commune sur les systèmes d’armes létales autonomes qui garantisse un véritable contrôle humain sur les fonctions critiques du système ;
  • empêcher la mise au point et la production de tout systèmes d’armes létales autonomes, autrement dit, empêcher tout programme de recherche tendant vers l’élaboration d’un systèmes d’armes létales autonomes.

Les fondements de l’interdiction des systèmes d’armes autonomes

La résolution soulèvent quatre arguments :

  • les systèmes d’armes létales autonomes pourraient « modifier radicalement la façon de faire la guerre et déclencher une course aux armements débridée et sans précédent » (considérant E) ;
  • l’utilisation de systèmes d’armes létales autonomes pose des « questions éthiques et juridiques essentielles quant au contrôle exercé par l’homme, en particulier au regard de décisions critiques, telles que le choix et l’attaque de cibles » (considérant F) ;
  • l’utilisation de systèmes d’armes létales autonomes soulève des questions essentielles quant à « l’applicabilité du droit international en matière de droits de l’homme, du droit international humanitaire et des normes et valeurs européennes concernant les actions militaires futures »  (considérant I).
  • Enfin, « tout système d’armes létales autonome peut rencontrer un dysfonctionnement en raison d’un mauvais codage ou d’une cyberattaque commise par un État ennemi ou un acteur non étatique » (considérant K).

La résolution du Parlement européen (PE) a été adoptée par 566 voix pour, 47 contre et 73 abstentions. Elle prend appui sur une première étude intitulée « Human rights implication of the usage of drones and unmanned robots in warfare » du 3 mai 2013. Cette étude donnait dès 2013 un aperçu de l’utilisation actuelle et probable de drones et de robots autonomes et examinait les implications juridiques pertinentes en vertu des droits de l’homme, du droit international humanitaire et de la Charte des Nations unies.

L’étude concluait que l’incertitude – quant aux normes juridiques applicables, au développement et à la prolifération rapides des drones et de la technologie robotique, et au manque de transparence et de responsabilité des politiques actuelles – risquait de polariser la communauté internationale et de saper la règle de la loi et, en fin de compte, de déstabiliser l’environnement de sécurité international dans son ensemble.

L’étude proposait trois recommandations politiques pour la politique étrangère européenne :

  1. L’UE devrait faire de la promotion de l’état de droit en matière de développement, de prolifération et d’utilisation de systèmes d’armement sans pilote une priorité déclarée de la politique étrangère européenne ;
  2. L’étude invitait l’UE à lancer un dialogue politique intergouvernemental afin de parvenir à un consensus international :
    1. sur les normes juridiques régissant l’utilisation de systèmes d’armes sans pilote actuellement opérationnels, et
    2. sur les contraintes juridiques et / ou des réserves éthiques pouvant s’appliquer au développement, à la prolifération et à l’utilisation futurs de systèmes d’armes létaux autonomes.
  3. Sur la base du consensus international qui en résulterait, l’étude invitait l’UE à œuvrer en faveur de l’adoption d’un accord international contraignant ou d’un code de conduite non contraignant visant à restreindre le développement, la prolifération ou l’utilisation de certains systèmes d’armes sans pilote consensus obtenu.

Les débats devant le Groupe d’Experts Gouvernementaux (GEG) des États parties à la convention sur certaines armes classiques (CCW)

Depuis 2016, le débat est également engagé à l’ONU. Un groupe d’experts gouvernementaux (GEG [2]) à la convention sur certaines armes classiques a été créé en 2016 par la cinquième Conférence d’examen des parties contractantes à la Convention sur certaines armes classiques (CCW).

Le GEG s’est d’abord réuni en novembre 2017. Dans son rapport de session 2017, le GEG a conclu que :

  • la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (CCW) offrait un cadre approprié pour traiter la question des nouvelles technologies dans le domaine des systèmes d’armes létaux autonomes ;
  • le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armes, y compris à la mise au point et à l’utilisation potentielles de systèmes d’armes létaux autonomes;
  • le déploiement de tout système d’armes quel qu’il soit dans le cadre d’un conflit armé continue de relever de la responsabilité des États ;
  • le GEG devrait consacrer la prochaine phase de ses discussions à la caractérisation des systèmes d’armes létaux autonomes en question afin de dégager une conception commune des notions et des caractéristiques pertinentes au regard des objectifs et des buts de la CCW ;
  • le GEG devrait examiner plus avant les aspects de l’interaction homme-machine dans la mise au point, le déploiement et l’emploi des technologies émergentes dans le domaine des systèmes d’armes létaux autonomes.

Les principaux problèmes sur les systèmes d’armes létaux autonomes ont été abordés lors des réunions de 2018 du GEG. Ils ont portés sur :

  • la caractérisation des systèmes envisagés afin de promouvoir une compréhension commune des concepts et des caractéristiques correspondant aux objectifs et aux buts de la Convention sur certaines armes classiques ;
  • l’examen approfondi de l’élément humain dans l’utilisation de la force létale ; les aspects de l’interaction homme-machine dans le développement, le déploiement et l’utilisation de technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ;
  • l’examen des applications militaires potentielles de technologies connexes dans le contexte des travaux du Groupe.

Quels sont les principes dégagés par le GEG lors de la dernière réunion du 31.08.2018 ?

Le GEG s’est accordé sur dix principes lors de leur dernière réunion le 31 août 2018 :

  1. le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armement, y compris au développement potentiel et à l’utilisation de systèmes d’armes autonomes létaux ;
  2. la responsabilité humaine des décisions relatives à l’utilisation des systèmes d’armement doit être maintenue et la responsabilité ne peut être transférée aux machines. Cela devrait être considéré dans l’ensemble du cycle de vie du système d’arme autonome ;
  3. la responsabilité du développement, du déploiement et de l’utilisation de tout nouveau système d’armes dans le cadre de la Convention sur certaines armes classiques doit être assurée conformément au droit international applicable, notamment par le fonctionnement de tels systèmes au sein d’une chaîne humaine responsable de commandement et de contrôle ;
  4. conformément aux obligations des États en vertu du droit international, l’étude, le développement, l’acquisition ou l’adoption d’une nouvelle arme, de moyens ou de méthodes de guerre, (la détermination devant être préalable à son emploi), dans certaines ou dans toutes les circonstances, ne peut être interdit par une loi internationale ;
  5. lors du développement ou de l’acquisition de nouveaux systèmes d’armes basés sur des technologies émergentes dans le domaine des SALA, la sécurité physique, les garanties non physiques appropriées (y compris la cybersécurité contre le piratage informatique ou l’usurpation de données), le risque d’acquisition par des groupes terroristes et le risque de prolifération doivent être considérés ;
  6. les évaluations des risques et les mesures d’atténuation devraient faire partie du cycle de conception, de développement, de test et de déploiement des technologies émergentes dans tous les systèmes d’armes ;
  7. l’utilisation de technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers doit être envisagée avec pour objectif le respect du droit international humanitaire et les autres obligations juridiques internationales applicables ;
  8. lors de l’élaboration de mesures politiques potentielles, les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ne devraient pas être anthropomorphisées ;
  9. les discussions et les mesures politiques éventuelles prises dans le cadre de la Convention ne devraient pas entraver les progrès ou l’accès aux utilisations pacifiques des technologies autonomes intelligentes ;
  10. la Convention sur certaines armes classiques offre un cadre approprié pour traiter la question des technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers dans le contexte des objectifs et buts de la Convention, qui cherchent à établir un équilibre entre nécessité militaire et considérations humanitaires.

Quelle est la position de l’Allemagne et de la France sur les systèmes d’armes létaux autonomes ?

Lors des réunions du GEG en novembre 2017, l’Allemagne et la France ont formulé dans un document de travail plusieurs propositions, notamment la définition du périmètre de travail des systèmes d’armes létaux autonomes (SALA).

L’Allemagne et la France proposent d’exclure de la définition de SALA :

Les systèmes pilotés à distance et automatisés, les systèmes porteurs de charges conventionnelles explosant avec une minuterie réglée, les systèmes téléopérés (par exemple des drones), les systèmes automatisés de défense antimissile, les torpilles, les systèmes de guidage et de navigation ainsi que les systèmes de surveillance et de détection.

L’Allemagne et la France considèrent en outre que la question de la définition même de « SALA » évoluera avec les progrès technologiques. La définition exacte qui pourra être adoptée à un stade ultérieur, dépendra également de la question de savoir quels types de mesures réglementaires sont recherchés et quel statut politique ou juridique devraient avoir ces SALA.

Dans leur déclaration politique commune, l’Allemagne et la France ont affirmé qu’elles partageaient la conviction que les humains devraient continuer à être en mesure de prendre les décisions finales concernant l’utilisation de la force létale et devrait continuer à exercer un contrôle suffisant. En outre, les États parties devraient rappeler que les règles du droit international, en particulier droit international humanitaire, s’appliquent pleinement au développement et à l’utilisation des SALA.

Quelles est la position des États-Unis sur les systèmes d’armes létaux autonomes ?

Contrairement à l’Allemagne et la France, les Etats-Unis estiment qu’il n’est pas nécessaire que le GEG adopte une définition de travail des SALA. Au lieu de cela, les Etats-Unis soutiennent la promotion d’une compréhension générale des caractéristiques des SALA. Pour les Etats-Unis, l’absence d’une définition de travail spécifique n’est pas une cause devant pénaliser les travaux du GEG dans la compréhension des problèmes potentiels posés par les SALA. Le droit de la guerre fournit un système de réglementation solide et cohérent pour les armes. Par conséquent, le GEG peut discuter des problèmes que posent potentiellement les « SALA » sous l’objectif de la Convention sur certaines armes classiques (CCW) sans devoir se mettre d’accord sur une définition de travail spécifique des SALA.

Les règles existantes d’application générale s’appliquent à l’utilisation de toutes les armes, y compris pour toute arme réputée être des « systèmes d’armes létaux autonomes ».

Les Etats-Unis ont également émis dans deux documents de travail distincts (WP.6 et WP.7) les positions suivantes :

  • le droit de la guerre n’exige pas qu’une arme, même une arme semi-autonome ou autonome, procède à des déterminations légales. Pour les USA, le droit de la guerre n’exige pas qu’une arme détermine si sa cible est un objectif militaire, mais plutôt que l’arme puisse être employée conformément au principe de distinction. De même, le droit de la guerre n’exige pas qu’une arme établisse des déterminations de proportionnalité, par exemple si l’on s’attend à ce qu’une attaque entraîne des dommages accidentels à des civils ou à des biens civils excessifs par rapport à l’avantage militaire concret et direct attendu ;
  • les machines ne sont pas des États ou des personnes en vertu de la loi. Les questions de responsabilité juridique sont des questions sur la manière dont les principes existants et bien établis en matière de responsabilité des États et des individus s’appliquent aux États et aux personnes qui utilisent des systèmes d’armes dotés de fonctions autonomes ;
  • les États sont responsables des actes des personnes faisant partie de leurs forces armées. Il s’ensuit que les États sont responsables de l’emploi d’armes à fonctions autonomes par des personnes faisant partie de leurs forces armées ainsi que d’autres actes de ce type pouvant être imputables à un État en vertu du droit de la responsabilité des États. Les États, en garantissant la responsabilité de tels comportements, peuvent recourir à divers mécanismes, notamment les enquêtes, la responsabilité pénale individuelle, la responsabilité civile et les mesures disciplinaires internes ;
  • comme pour toutes les décisions d’utiliser des systèmes d’armes, les personnes sont responsables de leurs décisions individuelles d’utiliser des armes avec des fonctions autonomes. Ainsi, les personnes qui utilisent des armes ayant des fonctions autonomes pour violer l’interdiction de cibler la population civile peuvent être tenues responsables de telles violations ;
  • les responsabilités de toute personne appartenant à un État ou à une partie au conflit peuvent dépendre du rôle de cette personne dans l’organisation ou des opérations militaires. De manière générale, les personnes chargées de mettre en œuvre une partie à un conflit ont l’obligation de prendre les décisions et jugements nécessaires requis par cette obligation internationale. A titre d’exemple, une partie à un conflit a l’obligation de prendre des précautions réalisables pour réduire les risques pour les civils, par exemple en émettant des avertissements avant les attaques. Le commandant compétent chargé de l’attaque déterminera s’il est possible de fournir un tel avertissement.

Quelle est la position de la Fédération de Russie sur les systèmes d’armes létaux autonomes ?

La Fédération de Russie a également fait part de sa position dans un document de travail (WP.8) dans lequel :

  • La Fédération de Russie estime que le GEG pourrait procéder à un examen approfondi des dispositions existantes du droit international, y compris le droit international humanitaire et les droits de l’homme qui pourrait éventuellement être appliqué aux SALA.
  • La Fédération de Russie part du principe que l’examen de nouvelles questions au sein de la CCW devraient être réalisé, en tenant compte à la fois des préoccupations humanitaires et de la défense légitime des intérêts des États. Cela dit, la nécessité de répondre aux préoccupations humanitaires ne peut être utilisée comme seule et unique condition suffisante pour imposer des régimes restrictifs et prohibitifs de certaines armes.

Résolution du PE : une prise de position hâtive qui prive d’intérêt le travail du GEG

Hormis avoir confirmé que les systèmes d’armes létales autonomes n’existent pas aujourd’hui ou encore que les systèmes automatisés ne devraient pas être assimilés à des systèmes d’armes létales autonomes, le Parlement européen ne semble pas avoir pris en compte l’ensemble des réflexions menées par le GEG.

En effet, la volonté de confirmer le principe d’une interdiction des systèmes d’armes létales autonomes avant la tenue de la réunion du GEG, prévue en novembre 2018, remet en cause la raison d’être de ce groupe.

Dans un contexte où la technologie entre une fois de plus en conflit avec l’éthique, faut-il y voir la volonté d’adopter une résolution guidée davantage par des convictions morales que par des considérations rationnelles ?

La nomination d’experts gouvernementaux répondait à un objectif précis que semble négliger le Parlement européen : allier la réalité des enjeux technologiques avec les considérations éthiques et juridiques.

La volonté d’adoption d’une position commune européenne et d’un instrument juridique contraignant au niveau international prônant l’interdiction des systèmes d’armes létales autonomes pourrait n’avoir qu’un effet symbolique.

En effet, elle se heurterait au principe de réalité.

A supposer qu’une telle position commune européenne se concrétise un jour, elle serait en total décalage avec les ambitions potentielles de pays tels que la Chine, les Etats-Unis, la Fédération de Russie, l’Inde ou encore l’Arabie Saoudite.

Comment l’Europe pourra répondre de cette décision le jour où, dans une opération de défense pour la paix, elle enverra son armée d’hommes et de femmes se battre contre des systèmes d’armes létales autonomes, développés par des Etats ne partageant pas ses considérations politiques et éthiques.

Il semblerait donc nécessaire que le Parlement européen travaille de concert avec le groupement d’experts gouvernementaux afin qu’une solution la plus réaliste et rationnelle possible puisse être conçue intégrant les principes et valeurs fondateurs de l’Europe.

L’Europe doit peser dans les débats sur les systèmes d’armes létales autonomes pour maintenir son influence au niveau international.

Didier Gazagne
Alix Desies
Lexing Défense & SécuritéDrones

(1) Résolution du Parlement européen du 12 septembre 2018 sur les systèmes d’armes autonomes (2018/2752(RSP)).
(2) Groupe d’experts gouvernementaux, GEG en français ou GGE en anglais.