Drones armés : une prise de conscience française confirmée

drones armés

Drones armés : la conformité au droit international. La France s’apprête à se doter de drones armés dans le contexte  des débats du Groupe d’experts gouvernementaux à l’ONU (1).

Notre précédent billet* mettait l’accent sur la difficile définition des systèmes d’armes létales autonomes (SALA). Ce second billet a pour objet l’analyse de la conformité de tels systèmes au droit international.

La conformité des drones armés au droit international

Il existe une confusion récurrente entre le drone armé, vecteur d’armes en tant que tel, et l’utilisation qui en est faite. Le rapport n°559 (2) a également tenté de clarifier cela : « Ii y a confusion entre une arme et la manière de s’en servir ».

Quatre aspects sont à distinguer :

  • la légalité des drones armés ;
  • la légalité de l’usage de drones armés par la France ;
  • la légalité prospective des SALA ;
  • la légitime défense : l’image ternie des drones armés découlant de leur usage par les américains.

1° De la légalité des drones armés

Le rapport n°559 affirme que le drone n’est pas en soi contraire au droit international de sorte que son interdiction serait non fondée. La problématique est pourtant mal formulée. Les rapporteurs affirment que « l’utilisation de drones armés n’est pas par nature contraire au droit international ». Bien au contraire. Si le drone n’est pas illégal par nature, en ce qu’il n’est qu’un vecteur d’armes, c’est justement son utilisation qui peut enfreindre le droit international.

Une seconde incohérence est à relever : tout en défendant l’idée que le drone n’est pas par nature illégal, les rapporteurs admettent que « les caractéristiques en termes de fiabilité (des drones) sont mal connues ». Or, c’était précisément ce point qu’il fallait clarifier afin de tarir les principales contestations.

2° De l’usage légal des drones armés par la France

Le Sénat a pu affirmer dans son rapport n° 559 que l’usage des drones armés par la France n’enfreindra pas les principes internationaux : « Les forces françaises, notamment à travers l’application des règles d’engagement fixées pour chaque opex, doivent respecter l’ensemble de ce corpus juridique » (Rapport n° 559, note 4 p. 50).

L’emploi de drones armés sera encadré de la même façon que n’importe quelle arme de guerre par des règles d’engagement : « La « chaîne d’engagement » pour une opération où le drone tire lui-même serait identique à celle en vigueur pour toutes les opérations déjà menées par des avions de combat ou par un couple drone-avion de combat. C’est cette chaîne d’engagement qui garantit la légalité et la légitimité de la mission. Elle repose sur un processus précis d’identification de la cible, de vérification des règles d’engagement, d’estimation préalable des dommages collatéraux, et, enfin, de décision par l’autorité en charge sur le théâtre d’opérations ».

Les règles d’engagement sont telles qu’à chaque action, l’analyse de terrain doit permettre d’apprécier la proportionnalité de l’offensive, sa nécessité et assurer la distinction entre combattants et non combattants. Sur ce dernier point, le système de drone armé devrait assurer le respect du principe de distinction. Ses charges utiles lui permettent d’obtenir les informations en temps réel et de procéder à un tir d’opportunité instantané après analyse des possibles dommages collatéraux. Du fait de la prédominance ces dernières années des conflits asymétriques, cette capacité de distinction devient une nécessité (3).

3° De la légalité prospective des SALA

Le droit des conflits armés ne semble pas remis en question du seul fait de la présence des drones armés existants. En revanche, la question pourra se poser pour les SALA. Néanmoins, l’article 36 de la Convention de Genève est une première protection au dévoiement des nouvelles technologies en matière d’armement. En vertu de cet article, les nouvelles armes pourront être déployées une fois leur capacité à se conformer au droit international démontrée.

Le Groupe d’experts gouvernementaux sur les SALA devraient ouvrir la voie à l’identification d’une réglementation dans le contexte des objectifs et des buts de la Convention sur certaines armes classiques. La publication d’un code de conduite apparaît comme une solution première.

Des exemples de principes ont été suggérés :

  • N’utiliser les SALA que contre certains objectifs militaires ;
  • En cas de doute, ne pas tirer ;
  • Prévoir un système de désactivation à distance ;
  • Faire application du principe de subsidiarité.

4° De la légitime défense : l’image ternie des drones armés découlant de leur usage par les américains

Il est vrai que les opérations américaines au Moyen-Orient ont suscité de vifs débats quant à la conformité des drones au droit international. En réalité, ces critiques sont teintées par le caractère illégitime des interventions américaines dénoncées. Le débat sur le recours à la force des Etats-Unis se confond donc avec celui sur la légalité des drones en tant qu’arme.

En effet, le débat ne concerne plus les drones mais le droit d’ingérence d’un pays tiers. A cet égard, le rapport prend le soin de distinguer les opérations françaises des opérations américaines, sources premières de critiques. Pourtant, c’est sur les mêmes fondements que la France justifie son recours à la force, par exemple « en s’appuyant sur les notions de légitime défense contre des acteurs non étatiques et le consentement des États à autoriser ces opérations sur leur territoire ».

Les interventions en Centre-Afrique, au Mali et Irak ont ainsi été justifiées. Toutefois, « dans le cas de la Syrie, il n’existait ni demande de la part de l’Etat syrien, ni résolution du Conseil de sécurité de l’ONU. C’est donc sur le fondement de la légitime défense que la France est intervenue. La notion de légitime défense peut être invoquée, dans la conception française, en réponse à une attaque armée dépassant un certain seuil de gravité, ce qui était assurément le cas des actions menées par Daesh. Il s’agit cependant, non de la légitime défense individuelle, mais de la légitime défense collective : l’Irak a fait l’objet d’une agression armée de la part de Daesh et l’Irak a demandé l’assistance de la communauté internationale. Ainsi, l’intervention en Syrie doit être considérée comme la prolongation de l’intervention menée en Irak à la demande des autorités de ce pays ».

Cette appréciation de la légitime défense française semble tout aussi subjective et extensive que celle invoquée par les Etats-Unis et que le Sénat ne manque pas de mettre en doute : « Il existe en effet dans certains cas des doutes sérieux sur le respect (par les américains) du cadre fixé par le droit international : frappes menées par les services de renseignement, invocation d’une légitime défense comprise de manière très extensive » (Rapport n°559, p. 51 & 52, Partie II, C, 2). Ainsi, par analogie à la critique portée sur l’appréciation de la légitime défense revendiquée par les américains, la justification de l’intervention française en Syrie pour légitime défense paraît tout aussi contestable. Mais ceci est un autre débat.

L’essentiel est que la France s’est saisie de la question des drones armés. De nombreuses questions restent encore sans réponse. Ces difficultés attestent finalement d’un droit international qui ne correspond plus totalement à la réalité des conflits et aux intérêts des grandes puissances.

Didier Gazagne
Alix Desies
Lexing Défense et sécurité – Drones

* Notre précédent billet mettait l’accent sur la difficile définition des systèmes d’armes létales autonomes (SALA) : « Drones armés – Une prise de conscience française confirmée : une notion aux contours mal définis  » (paru le 08-10-2018).

(1) Compte rendu de la réunion d’experts sur certaines armes classiques de mai 2014.
(2) Rapport d’information n°559 « Drones d’observation et drones armés : un enjeu de souveraineté », Doc. Sénat, 23-5-2017.
(3) Pour aller plus loin : Minilex, Droit des systèmes autonomes, Edition Larcier, à paraître en 2019.
(3) Article précédent : « Drones armés,  une prise de conscience française confirmée (1/2) : une notion aux contours mal définis » du 8-10-2018.
(3) Article sur les SALA : « Faut-il interdire les systèmes d’armes létales autonomes (SALA) ? » du 28-9-2018.




Faut-il interdire les systèmes d’armes létales autonomes (SALA) ?

Systèmes d’armes létaux autonomesUne résolution européenne prône l’interdiction, à l’échelle internationale, des systèmes d’armes létales autonomes.

Cette résolution du Parlement européen du 12 septembre 2018 (1) demande aux États membres et au Conseil d’œuvrer au lancement de négociations internationales pour un instrument juridiquement contraignant qui interdise les systèmes d’armes létales autonomes (SALA) dont les fonctions critiques du choix et de l’attaque des cibles individuelles, échappent à un contrôle humain significatif (2).

Cette résolution défend deux positions majeures :

  • adopter en urgence une position commune sur les systèmes d’armes létales autonomes qui garantisse un véritable contrôle humain sur les fonctions critiques du système ;
  • empêcher la mise au point et la production de tout systèmes d’armes létales autonomes, autrement dit, empêcher tout programme de recherche tendant vers l’élaboration d’un systèmes d’armes létales autonomes.

Les fondements de l’interdiction des systèmes d’armes autonomes

La résolution soulèvent quatre arguments :

  • les systèmes d’armes létales autonomes pourraient « modifier radicalement la façon de faire la guerre et déclencher une course aux armements débridée et sans précédent » (considérant E) ;
  • l’utilisation de systèmes d’armes létales autonomes pose des « questions éthiques et juridiques essentielles quant au contrôle exercé par l’homme, en particulier au regard de décisions critiques, telles que le choix et l’attaque de cibles » (considérant F) ;
  • l’utilisation de systèmes d’armes létales autonomes soulève des questions essentielles quant à « l’applicabilité du droit international en matière de droits de l’homme, du droit international humanitaire et des normes et valeurs européennes concernant les actions militaires futures »  (considérant I).
  • Enfin, « tout système d’armes létales autonome peut rencontrer un dysfonctionnement en raison d’un mauvais codage ou d’une cyberattaque commise par un État ennemi ou un acteur non étatique » (considérant K).

La résolution du Parlement européen (PE) a été adoptée par 566 voix pour, 47 contre et 73 abstentions. Elle prend appui sur une première étude intitulée « Human rights implication of the usage of drones and unmanned robots in warfare » du 3 mai 2013. Cette étude donnait dès 2013 un aperçu de l’utilisation actuelle et probable de drones et de robots autonomes et examinait les implications juridiques pertinentes en vertu des droits de l’homme, du droit international humanitaire et de la Charte des Nations unies.

L’étude concluait que l’incertitude – quant aux normes juridiques applicables, au développement et à la prolifération rapides des drones et de la technologie robotique, et au manque de transparence et de responsabilité des politiques actuelles – risquait de polariser la communauté internationale et de saper la règle de la loi et, en fin de compte, de déstabiliser l’environnement de sécurité international dans son ensemble.

L’étude proposait trois recommandations politiques pour la politique étrangère européenne :

  1. L’UE devrait faire de la promotion de l’état de droit en matière de développement, de prolifération et d’utilisation de systèmes d’armement sans pilote une priorité déclarée de la politique étrangère européenne ;
  2. L’étude invitait l’UE à lancer un dialogue politique intergouvernemental afin de parvenir à un consensus international :
    1. sur les normes juridiques régissant l’utilisation de systèmes d’armes sans pilote actuellement opérationnels, et
    2. sur les contraintes juridiques et / ou des réserves éthiques pouvant s’appliquer au développement, à la prolifération et à l’utilisation futurs de systèmes d’armes létaux autonomes.
  3. Sur la base du consensus international qui en résulterait, l’étude invitait l’UE à œuvrer en faveur de l’adoption d’un accord international contraignant ou d’un code de conduite non contraignant visant à restreindre le développement, la prolifération ou l’utilisation de certains systèmes d’armes sans pilote consensus obtenu.

Les débats devant le Groupe d’Experts Gouvernementaux (GEG) des États parties à la convention sur certaines armes classiques (CCW)

Depuis 2016, le débat est également engagé à l’ONU. Un groupe d’experts gouvernementaux (GEG [2]) à la convention sur certaines armes classiques a été créé en 2016 par la cinquième Conférence d’examen des parties contractantes à la Convention sur certaines armes classiques (CCW).

Le GEG s’est d’abord réuni en novembre 2017. Dans son rapport de session 2017, le GEG a conclu que :

  • la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (CCW) offrait un cadre approprié pour traiter la question des nouvelles technologies dans le domaine des systèmes d’armes létaux autonomes ;
  • le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armes, y compris à la mise au point et à l’utilisation potentielles de systèmes d’armes létaux autonomes;
  • le déploiement de tout système d’armes quel qu’il soit dans le cadre d’un conflit armé continue de relever de la responsabilité des États ;
  • le GEG devrait consacrer la prochaine phase de ses discussions à la caractérisation des systèmes d’armes létaux autonomes en question afin de dégager une conception commune des notions et des caractéristiques pertinentes au regard des objectifs et des buts de la CCW ;
  • le GEG devrait examiner plus avant les aspects de l’interaction homme-machine dans la mise au point, le déploiement et l’emploi des technologies émergentes dans le domaine des systèmes d’armes létaux autonomes.

Les principaux problèmes sur les systèmes d’armes létaux autonomes ont été abordés lors des réunions de 2018 du GEG. Ils ont portés sur :

  • la caractérisation des systèmes envisagés afin de promouvoir une compréhension commune des concepts et des caractéristiques correspondant aux objectifs et aux buts de la Convention sur certaines armes classiques ;
  • l’examen approfondi de l’élément humain dans l’utilisation de la force létale ; les aspects de l’interaction homme-machine dans le développement, le déploiement et l’utilisation de technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ;
  • l’examen des applications militaires potentielles de technologies connexes dans le contexte des travaux du Groupe.

Quels sont les principes dégagés par le GEG lors de la dernière réunion du 31.08.2018 ?

Le GEG s’est accordé sur dix principes lors de leur dernière réunion le 31 août 2018 :

  1. le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armement, y compris au développement potentiel et à l’utilisation de systèmes d’armes autonomes létaux ;
  2. la responsabilité humaine des décisions relatives à l’utilisation des systèmes d’armement doit être maintenue et la responsabilité ne peut être transférée aux machines. Cela devrait être considéré dans l’ensemble du cycle de vie du système d’arme autonome ;
  3. la responsabilité du développement, du déploiement et de l’utilisation de tout nouveau système d’armes dans le cadre de la Convention sur certaines armes classiques doit être assurée conformément au droit international applicable, notamment par le fonctionnement de tels systèmes au sein d’une chaîne humaine responsable de commandement et de contrôle ;
  4. conformément aux obligations des États en vertu du droit international, l’étude, le développement, l’acquisition ou l’adoption d’une nouvelle arme, de moyens ou de méthodes de guerre, (la détermination devant être préalable à son emploi), dans certaines ou dans toutes les circonstances, ne peut être interdit par une loi internationale ;
  5. lors du développement ou de l’acquisition de nouveaux systèmes d’armes basés sur des technologies émergentes dans le domaine des SALA, la sécurité physique, les garanties non physiques appropriées (y compris la cybersécurité contre le piratage informatique ou l’usurpation de données), le risque d’acquisition par des groupes terroristes et le risque de prolifération doivent être considérés ;
  6. les évaluations des risques et les mesures d’atténuation devraient faire partie du cycle de conception, de développement, de test et de déploiement des technologies émergentes dans tous les systèmes d’armes ;
  7. l’utilisation de technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers doit être envisagée avec pour objectif le respect du droit international humanitaire et les autres obligations juridiques internationales applicables ;
  8. lors de l’élaboration de mesures politiques potentielles, les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ne devraient pas être anthropomorphisées ;
  9. les discussions et les mesures politiques éventuelles prises dans le cadre de la Convention ne devraient pas entraver les progrès ou l’accès aux utilisations pacifiques des technologies autonomes intelligentes ;
  10. la Convention sur certaines armes classiques offre un cadre approprié pour traiter la question des technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers dans le contexte des objectifs et buts de la Convention, qui cherchent à établir un équilibre entre nécessité militaire et considérations humanitaires.

Quelle est la position de l’Allemagne et de la France sur les systèmes d’armes létaux autonomes ?

Lors des réunions du GEG en novembre 2017, l’Allemagne et la France ont formulé dans un document de travail plusieurs propositions, notamment la définition du périmètre de travail des systèmes d’armes létaux autonomes (SALA).

L’Allemagne et la France proposent d’exclure de la définition de SALA :

Les systèmes pilotés à distance et automatisés, les systèmes porteurs de charges conventionnelles explosant avec une minuterie réglée, les systèmes téléopérés (par exemple des drones), les systèmes automatisés de défense antimissile, les torpilles, les systèmes de guidage et de navigation ainsi que les systèmes de surveillance et de détection.

L’Allemagne et la France considèrent en outre que la question de la définition même de « SALA » évoluera avec les progrès technologiques. La définition exacte qui pourra être adoptée à un stade ultérieur, dépendra également de la question de savoir quels types de mesures réglementaires sont recherchés et quel statut politique ou juridique devraient avoir ces SALA.

Dans leur déclaration politique commune, l’Allemagne et la France ont affirmé qu’elles partageaient la conviction que les humains devraient continuer à être en mesure de prendre les décisions finales concernant l’utilisation de la force létale et devrait continuer à exercer un contrôle suffisant. En outre, les États parties devraient rappeler que les règles du droit international, en particulier droit international humanitaire, s’appliquent pleinement au développement et à l’utilisation des SALA.

Quelles est la position des États-Unis sur les systèmes d’armes létaux autonomes ?

Contrairement à l’Allemagne et la France, les Etats-Unis estiment qu’il n’est pas nécessaire que le GEG adopte une définition de travail des SALA. Au lieu de cela, les Etats-Unis soutiennent la promotion d’une compréhension générale des caractéristiques des SALA. Pour les Etats-Unis, l’absence d’une définition de travail spécifique n’est pas une cause devant pénaliser les travaux du GEG dans la compréhension des problèmes potentiels posés par les SALA. Le droit de la guerre fournit un système de réglementation solide et cohérent pour les armes. Par conséquent, le GEG peut discuter des problèmes que posent potentiellement les « SALA » sous l’objectif de la Convention sur certaines armes classiques (CCW) sans devoir se mettre d’accord sur une définition de travail spécifique des SALA.

Les règles existantes d’application générale s’appliquent à l’utilisation de toutes les armes, y compris pour toute arme réputée être des « systèmes d’armes létaux autonomes ».

Les Etats-Unis ont également émis dans deux documents de travail distincts (WP.6 et WP.7) les positions suivantes :

  • le droit de la guerre n’exige pas qu’une arme, même une arme semi-autonome ou autonome, procède à des déterminations légales. Pour les USA, le droit de la guerre n’exige pas qu’une arme détermine si sa cible est un objectif militaire, mais plutôt que l’arme puisse être employée conformément au principe de distinction. De même, le droit de la guerre n’exige pas qu’une arme établisse des déterminations de proportionnalité, par exemple si l’on s’attend à ce qu’une attaque entraîne des dommages accidentels à des civils ou à des biens civils excessifs par rapport à l’avantage militaire concret et direct attendu ;
  • les machines ne sont pas des États ou des personnes en vertu de la loi. Les questions de responsabilité juridique sont des questions sur la manière dont les principes existants et bien établis en matière de responsabilité des États et des individus s’appliquent aux États et aux personnes qui utilisent des systèmes d’armes dotés de fonctions autonomes ;
  • les États sont responsables des actes des personnes faisant partie de leurs forces armées. Il s’ensuit que les États sont responsables de l’emploi d’armes à fonctions autonomes par des personnes faisant partie de leurs forces armées ainsi que d’autres actes de ce type pouvant être imputables à un État en vertu du droit de la responsabilité des États. Les États, en garantissant la responsabilité de tels comportements, peuvent recourir à divers mécanismes, notamment les enquêtes, la responsabilité pénale individuelle, la responsabilité civile et les mesures disciplinaires internes ;
  • comme pour toutes les décisions d’utiliser des systèmes d’armes, les personnes sont responsables de leurs décisions individuelles d’utiliser des armes avec des fonctions autonomes. Ainsi, les personnes qui utilisent des armes ayant des fonctions autonomes pour violer l’interdiction de cibler la population civile peuvent être tenues responsables de telles violations ;
  • les responsabilités de toute personne appartenant à un État ou à une partie au conflit peuvent dépendre du rôle de cette personne dans l’organisation ou des opérations militaires. De manière générale, les personnes chargées de mettre en œuvre une partie à un conflit ont l’obligation de prendre les décisions et jugements nécessaires requis par cette obligation internationale. A titre d’exemple, une partie à un conflit a l’obligation de prendre des précautions réalisables pour réduire les risques pour les civils, par exemple en émettant des avertissements avant les attaques. Le commandant compétent chargé de l’attaque déterminera s’il est possible de fournir un tel avertissement.

Quelle est la position de la Fédération de Russie sur les systèmes d’armes létaux autonomes ?

La Fédération de Russie a également fait part de sa position dans un document de travail (WP.8) dans lequel :

  • La Fédération de Russie estime que le GEG pourrait procéder à un examen approfondi des dispositions existantes du droit international, y compris le droit international humanitaire et les droits de l’homme qui pourrait éventuellement être appliqué aux SALA.
  • La Fédération de Russie part du principe que l’examen de nouvelles questions au sein de la CCW devraient être réalisé, en tenant compte à la fois des préoccupations humanitaires et de la défense légitime des intérêts des États. Cela dit, la nécessité de répondre aux préoccupations humanitaires ne peut être utilisée comme seule et unique condition suffisante pour imposer des régimes restrictifs et prohibitifs de certaines armes.

Résolution du PE : une prise de position hâtive qui prive d’intérêt le travail du GEG

Hormis avoir confirmé que les systèmes d’armes létales autonomes n’existent pas aujourd’hui ou encore que les systèmes automatisés ne devraient pas être assimilés à des systèmes d’armes létales autonomes, le Parlement européen ne semble pas avoir pris en compte l’ensemble des réflexions menées par le GEG.

En effet, la volonté de confirmer le principe d’une interdiction des systèmes d’armes létales autonomes avant la tenue de la réunion du GEG, prévue en novembre 2018, remet en cause la raison d’être de ce groupe.

Dans un contexte où la technologie entre une fois de plus en conflit avec l’éthique, faut-il y voir la volonté d’adopter une résolution guidée davantage par des convictions morales que par des considérations rationnelles ?

La nomination d’experts gouvernementaux répondait à un objectif précis que semble négliger le Parlement européen : allier la réalité des enjeux technologiques avec les considérations éthiques et juridiques.

La volonté d’adoption d’une position commune européenne et d’un instrument juridique contraignant au niveau international prônant l’interdiction des systèmes d’armes létales autonomes pourrait n’avoir qu’un effet symbolique.

En effet, elle se heurterait au principe de réalité.

A supposer qu’une telle position commune européenne se concrétise un jour, elle serait en total décalage avec les ambitions potentielles de pays tels que la Chine, les Etats-Unis, la Fédération de Russie, l’Inde ou encore l’Arabie Saoudite.

Comment l’Europe pourra répondre de cette décision le jour où, dans une opération de défense pour la paix, elle enverra son armée d’hommes et de femmes se battre contre des systèmes d’armes létales autonomes, développés par des Etats ne partageant pas ses considérations politiques et éthiques.

Il semblerait donc nécessaire que le Parlement européen travaille de concert avec le groupement d’experts gouvernementaux afin qu’une solution la plus réaliste et rationnelle possible puisse être conçue intégrant les principes et valeurs fondateurs de l’Europe.

L’Europe doit peser dans les débats sur les systèmes d’armes létales autonomes pour maintenir son influence au niveau international.

Didier Gazagne
Alix Desies
Lexing Défense & SécuritéDrones

(1) Résolution du Parlement européen du 12 septembre 2018 sur les systèmes d’armes autonomes (2018/2752(RSP)).
(2) Groupe d’experts gouvernementaux, GEG en français ou GGE en anglais.




Encadrement des systèmes d’armes létaux autonomes

armesLa réunion des experts de la Convention sur certaines armes classiques concerne les systèmes d’armes létaux autonomes.

La CCAC (1) a pour but d’interdire ou de limiter l’emploi de certains types particuliers d’armes qui sont réputées infliger des souffrances inutiles ou injustifiables aux combattants ou frapper sans discrimination les civils. A ce titre, les travaux menés en application de la CCAC s’orientent sur les systèmes d’armes létaux autonomes (SALA), encore appelées armes robotisées autonomes (ou LAWS pour lethal autonomous weapons systems).

Un système d’arme létal autonome peut être caractérisé par une capacité à se déplacer librement, à s’adapter à son environnement et d’effectuer le ciblage et le lancement d’effecteur létal, dans une autonomie fonctionnelle complète. Cette caractérisation exclut les systèmes actuels « d’armes automatiques » qui ne disposent pas de la capacité et d’autonomie fonctionnelle et surtout dont le ciblage et le lancement d’effecteur létal sont réalisés par des opérateurs humains.

La réunion des experts doit permettre de dresser une cartographie des développements actuels dans le domaine civil, et des études de cas sur les systèmes autonomes maritimes, aériens et terrestres ainsi que les procédures normalisées d’exploitation et d’interaction homme-machine, ainsi que les développements actuels dans le domaine militaire (2).

Dans l’attente de la publication de ces recommandations, la position de la France mérite d’être commentée en ce qu’elle propose une définition ambitieuse des SALA et refuse toute interdiction préventive de ce type d’armes.

Les documents de préparation de cette réunion transmis par la France (3) démontrent une réelle volonté d’approfondir la réflexion sur le sujet des SALA dans le respect absolu du droit des conflits armés.

La position française consiste tout d’abord à proposer une définition des SALA à la lumière de leurs caractéristiques. Un SALA doit ainsi :

  • être un système entièrement autonome ;
  • impliquant une totale absence de supervision humaine ;
  • dans sa capacité à se déplacer, à s’adapter à son environnement terrestre, maritime ou aérien, à viser et à faire feu avec un effet létal.

Cette définition exclut ipso facto tout système d’arme opéré à distance ou supervisé par l’homme. La France opte ainsi pour une définition impliquant un degré d’autonomie total des SALA (« Human-out-of-the-loop »).

De tels systèmes d’armes, compte tenu de la complexité et de la diversité des environnements, ainsi que de l’incapacité à prévoir l’ensemble des scénarios d’une opération militaire, devraient, selon les documents transmis par la France, posséder des capacités de « self-learning » (notons que la notion d’intelligence artificielle n’est pas utilisée).

Cette définition ambitieuse est relativisée par les avancées du progrès technique qui ne permettent pas, à ce jour, aux SALA d’avoir un « rôle de prise de décision autonome du ciblage et de l’ouverture de feu ». Deux considérations viennent justifier cette position. Tout d’abord, l’imprévisibilité du comportement d’un SALA, confronté à un élément non-modélisé, nuirait à l’utilité et à l’efficacité d’un tel type d’arme. Aussi, l’impossibilité du SALA de modéliser parfaitement son environnement et le comportement des différents acteurs présents sur le champ de bataille pourrait conduire à des réactions portant gravement atteinte au droit des conflits armés (incapacité de distinction entre objectifs militaires et population civile dans un environnement dégradé ou difficulté d’évaluer la proportionnalité d’une attaque, par exemple). La France considère que la notion de « contrôle significatif » dont la définition pourrait être contestée, ne permettrait pas d’aboutir à une base juridique solide.

Les défis juridiques du droit international humanitaire (DIH) porte sur l’article 36 du premier protocole additionnel aux Conventions de Genève du 12 août 1949. L’article 36 oblige les Etats, « dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, (…) à déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances ». La France précise appliquer cet examen de licéité « dès l’étape dite d’orientation, c’est-à-dire juste après « l’évaluation du besoin ».

Des SALA capables d’intégrer et d’appliquer, en opération, l’ensemble des principes du droit des conflits armés n’existent pas encore. La France n’entend cependant pas fermer la porte à de tels types d’armes précisant que « le seul fait qu’une machine et non pas un être humain sélectionne la cible, prenne la décision d’ouvrir le feu, ou conduise une attaque n’entraîne pas nécessairement une violation du droit international humanitaire ». En effet, ces systèmes pourraient être conçus pour se conformer aux principes généraux du droit des conflits armés. Dans certains cas, l’utilisation des SALA pourrait permettre un meilleur respect du droit international humanitaire en réduisant les risques pour les civils en prenant des décisions de ciblage plus précises.

En cas d’infraction aux règles du droit des conflits armés ou du droit international humanitaire lors de l’utilisation des SALA, la responsabilité du commandement militaire, des décideurs politiques et des industriels pourrait être recherchée. La robotisation du champ de bataille n’a d’ailleurs pas vocation à remplacer l’homme mais à augmenter ses capacités. Elle ne saurait donc évoluer vers un système annihilant toute forme de responsabilité humaine.

Dans le respect de ses engagements internationaux, « la France n’envisagerait de développer ou d’employer des SALA que si ces systèmes démontraient leur parfaite conformité au droit international » et notamment au droit des conflits armés et du droit international humanitaire. La France estime d’ailleurs que l’emploi éventuels de systèmes d’armes létaux autonomes ne doit pas être considérés comme « intrinsèquement en contradiction avec le droit international humanitaire » et que « toute interdiction préventive » des SALA « semble prématurée »

La France, dans une démarche prospective, invite donc ses partenaires à poursuivre la réflexion sur l’emploi des SALA. L’objectif de cette réunion d’experts est de proposer des recommandations pour la 5e conférence d’examen de la CCAC. Le président de la réunion d’experts soumettra un rapport à la 5e conférence d’examen 2016 des Hautes Parties contractantes à la CCAC (4).

Parmi les autres pays ou participants à la réunion, il est possible de relever la position des Etats-Unis, du Canada, du Japon et du Royaume-Uni. A l’inverse de la France, la délégation américaine ne croit pas qu’une définition de la notion de système d’arme létale autonome soit nécessaire à ce stade. Les Etats-Unis souhaiteraient que, lors de la 5e conférence d’examen 2016, s’exprime un accord pour la réalisation d’un document non juridiquement contraignant décrivant le process complet d’examen des systèmes d’armes létaux autonomes, incluant notamment les risques politiques et juridiques et les meilleures pratiques opérationnelles que les Etats pourraient envisager d’utiliser si elles décident de développer des systèmes d’armes létaux autonomes.

Le Canada espère que par le développement d’une compréhension plus profonde, plus nuancée des questions humanitaires soulevées par les lois stratégiques, militaires, la « communauté internationale sera mieux en mesure de saisir les périls et les promesses de cette technologie émergente, et prendre des mesures sage et efficace ». Le Canada considère qu’une interdiction de la technologie des SALA constituerait la meilleure approche à ce stade pour aborder les risques opérationnels, moraux, éthiques, politiques et juridiques.

Le Japon souhaite également une clarification de la définition d’un SALA. Le ministre de la Défense du Japon n’envisage pas le développement de robots avec des humains hors de la boucle (humans out of the loop) qui serait capable de « commettre des meurtres ». Le Royaume-Uni partage également la position du Japon sur son absence d’intention de développer des systèmes qui pourrait être opérer sans aucun contrôle humain et est déterminé à assurer que ces systèmes d’armes restent sous contrôle de l’humain.

D’autres Etats disposant des capacités technologiques pour développer des SALA n’ont pas exprimé de position officielle lors de la réunion, il en est ainsi notamment de l’Allemagne, de la Chine et de la Russie.

Didier Gazagne
François Gorriez
Lexing Cybersécurité – IE- Technologies de sécurité & Défense

(1) Convention sur certaines armes classiques (CCAC).
(2) Lettre de l’Ambassadeur Michael Biontino du 8-2-2016.
(3) Documents disponibles à cette adresse.
(4) Réunion du 11/15-4-2016, Document de travail.