Encadrement des systèmes d’armes létaux autonomes

armesLa réunion des experts de la Convention sur certaines armes classiques concerne les systèmes d’armes létaux autonomes.

La CCAC (1) a pour but d’interdire ou de limiter l’emploi de certains types particuliers d’armes qui sont réputées infliger des souffrances inutiles ou injustifiables aux combattants ou frapper sans discrimination les civils. A ce titre, les travaux menés en application de la CCAC s’orientent sur les systèmes d’armes létaux autonomes (SALA), encore appelées armes robotisées autonomes (ou LAWS pour lethal autonomous weapons systems).

Un système d’arme létal autonome peut être caractérisé par une capacité à se déplacer librement, à s’adapter à son environnement et d’effectuer le ciblage et le lancement d’effecteur létal, dans une autonomie fonctionnelle complète. Cette caractérisation exclut les systèmes actuels « d’armes automatiques » qui ne disposent pas de la capacité et d’autonomie fonctionnelle et surtout dont le ciblage et le lancement d’effecteur létal sont réalisés par des opérateurs humains.

La réunion des experts doit permettre de dresser une cartographie des développements actuels dans le domaine civil, et des études de cas sur les systèmes autonomes maritimes, aériens et terrestres ainsi que les procédures normalisées d’exploitation et d’interaction homme-machine, ainsi que les développements actuels dans le domaine militaire (2).

Dans l’attente de la publication de ces recommandations, la position de la France mérite d’être commentée en ce qu’elle propose une définition ambitieuse des SALA et refuse toute interdiction préventive de ce type d’armes.

Les documents de préparation de cette réunion transmis par la France (3) démontrent une réelle volonté d’approfondir la réflexion sur le sujet des SALA dans le respect absolu du droit des conflits armés.

La position française consiste tout d’abord à proposer une définition des SALA à la lumière de leurs caractéristiques. Un SALA doit ainsi :

  • être un système entièrement autonome ;
  • impliquant une totale absence de supervision humaine ;
  • dans sa capacité à se déplacer, à s’adapter à son environnement terrestre, maritime ou aérien, à viser et à faire feu avec un effet létal.

Cette définition exclut ipso facto tout système d’arme opéré à distance ou supervisé par l’homme. La France opte ainsi pour une définition impliquant un degré d’autonomie total des SALA (« Human-out-of-the-loop »).

De tels systèmes d’armes, compte tenu de la complexité et de la diversité des environnements, ainsi que de l’incapacité à prévoir l’ensemble des scénarios d’une opération militaire, devraient, selon les documents transmis par la France, posséder des capacités de « self-learning » (notons que la notion d’intelligence artificielle n’est pas utilisée).

Cette définition ambitieuse est relativisée par les avancées du progrès technique qui ne permettent pas, à ce jour, aux SALA d’avoir un « rôle de prise de décision autonome du ciblage et de l’ouverture de feu ». Deux considérations viennent justifier cette position. Tout d’abord, l’imprévisibilité du comportement d’un SALA, confronté à un élément non-modélisé, nuirait à l’utilité et à l’efficacité d’un tel type d’arme. Aussi, l’impossibilité du SALA de modéliser parfaitement son environnement et le comportement des différents acteurs présents sur le champ de bataille pourrait conduire à des réactions portant gravement atteinte au droit des conflits armés (incapacité de distinction entre objectifs militaires et population civile dans un environnement dégradé ou difficulté d’évaluer la proportionnalité d’une attaque, par exemple). La France considère que la notion de « contrôle significatif » dont la définition pourrait être contestée, ne permettrait pas d’aboutir à une base juridique solide.

Les défis juridiques du droit international humanitaire (DIH) porte sur l’article 36 du premier protocole additionnel aux Conventions de Genève du 12 août 1949. L’article 36 oblige les Etats, « dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, (…) à déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances ». La France précise appliquer cet examen de licéité « dès l’étape dite d’orientation, c’est-à-dire juste après « l’évaluation du besoin ».

Des SALA capables d’intégrer et d’appliquer, en opération, l’ensemble des principes du droit des conflits armés n’existent pas encore. La France n’entend cependant pas fermer la porte à de tels types d’armes précisant que « le seul fait qu’une machine et non pas un être humain sélectionne la cible, prenne la décision d’ouvrir le feu, ou conduise une attaque n’entraîne pas nécessairement une violation du droit international humanitaire ». En effet, ces systèmes pourraient être conçus pour se conformer aux principes généraux du droit des conflits armés. Dans certains cas, l’utilisation des SALA pourrait permettre un meilleur respect du droit international humanitaire en réduisant les risques pour les civils en prenant des décisions de ciblage plus précises.

En cas d’infraction aux règles du droit des conflits armés ou du droit international humanitaire lors de l’utilisation des SALA, la responsabilité du commandement militaire, des décideurs politiques et des industriels pourrait être recherchée. La robotisation du champ de bataille n’a d’ailleurs pas vocation à remplacer l’homme mais à augmenter ses capacités. Elle ne saurait donc évoluer vers un système annihilant toute forme de responsabilité humaine.

Dans le respect de ses engagements internationaux, « la France n’envisagerait de développer ou d’employer des SALA que si ces systèmes démontraient leur parfaite conformité au droit international » et notamment au droit des conflits armés et du droit international humanitaire. La France estime d’ailleurs que l’emploi éventuels de systèmes d’armes létaux autonomes ne doit pas être considérés comme « intrinsèquement en contradiction avec le droit international humanitaire » et que « toute interdiction préventive » des SALA « semble prématurée »

La France, dans une démarche prospective, invite donc ses partenaires à poursuivre la réflexion sur l’emploi des SALA. L’objectif de cette réunion d’experts est de proposer des recommandations pour la 5e conférence d’examen de la CCAC. Le président de la réunion d’experts soumettra un rapport à la 5e conférence d’examen 2016 des Hautes Parties contractantes à la CCAC (4).

Parmi les autres pays ou participants à la réunion, il est possible de relever la position des Etats-Unis, du Canada, du Japon et du Royaume-Uni. A l’inverse de la France, la délégation américaine ne croit pas qu’une définition de la notion de système d’arme létale autonome soit nécessaire à ce stade. Les Etats-Unis souhaiteraient que, lors de la 5e conférence d’examen 2016, s’exprime un accord pour la réalisation d’un document non juridiquement contraignant décrivant le process complet d’examen des systèmes d’armes létaux autonomes, incluant notamment les risques politiques et juridiques et les meilleures pratiques opérationnelles que les Etats pourraient envisager d’utiliser si elles décident de développer des systèmes d’armes létaux autonomes.

Le Canada espère que par le développement d’une compréhension plus profonde, plus nuancée des questions humanitaires soulevées par les lois stratégiques, militaires, la « communauté internationale sera mieux en mesure de saisir les périls et les promesses de cette technologie émergente, et prendre des mesures sage et efficace ». Le Canada considère qu’une interdiction de la technologie des SALA constituerait la meilleure approche à ce stade pour aborder les risques opérationnels, moraux, éthiques, politiques et juridiques.

Le Japon souhaite également une clarification de la définition d’un SALA. Le ministre de la Défense du Japon n’envisage pas le développement de robots avec des humains hors de la boucle (humans out of the loop) qui serait capable de « commettre des meurtres ». Le Royaume-Uni partage également la position du Japon sur son absence d’intention de développer des systèmes qui pourrait être opérer sans aucun contrôle humain et est déterminé à assurer que ces systèmes d’armes restent sous contrôle de l’humain.

D’autres Etats disposant des capacités technologiques pour développer des SALA n’ont pas exprimé de position officielle lors de la réunion, il en est ainsi notamment de l’Allemagne, de la Chine et de la Russie.

Didier Gazagne
François Gorriez
Lexing Cybersécurité – IE- Technologies de sécurité & Défense

(1) Convention sur certaines armes classiques (CCAC).
(2) Lettre de l’Ambassadeur Michael Biontino du 8-2-2016.
(3) Documents disponibles à cette adresse.
(4) Réunion du 11/15-4-2016, Document de travail.




RPAS : le futur cadre réglementaire de l’exploitation de drones

RPAS : le futur cadre réglementaire de l’exploitation de dronesLes autorisations nationales d’exploitation de drones ne bénéficient pas de la reconnaissance mutuelle.

Elles ne permettent pas de générer d’activités à l’échelle de l’Europe, qu’il s’agisse de fabriquer des RPAS ou de les mettre en exploitation.

Vers un cadre réglementaire européen pour l’exploitation de drones. L’Industrie du drone devrait bientôt disposer d’un cadre réglementaire européen relatif à l’exploitation des drones. En effet, suite à la conférence de Riga et de la déclaration de Riga du 6 mars 2015 (1), l’Agence Européenne de Sécurité Aérienne (EASA) a reçu mandat de la Commission européenne d’élaborer un cadre réglementaire européen pour les opérations de drones ainsi que des propositions concrètes modifiant la réglementation actuellement en vigueur.

L’avis préliminaire des propositions de modification (A-NPD 2015-10) de l’EASA rendu public le 31 juillet 2015 et qui est soumis à consultation jusqu’au 25 septembre 2015, a pour objectif la mise en place d’un cadre réglementaire pour l’exploitation des drones, afin de garantir un développement sûr, sécuritaire et respectueux de l’environnement et le respect des préoccupations des citoyens concernant la vie privée et la protection des données (2).

Les propositions de l’EASA et les impacts sur la réglementation européenne. L’EASA, dont le champ de compétence est limité aux aéronefs sans pilote de plus de 150 kg, sur la base de considérations traditionnelles en matière de navigabilité, souhaite que cette délimitation arbitraire soit réexaminée.

L’A-NPD est basé sur le concept d’opérations de drones (3) déjà proposé par l’EASA, lequel classe les opérations de drones, en fonction d’une approche par les risques, en 3 catégories : Open (risque faible), Opération spécifique (risque moyen), Certifié (risque élevé), chaque catégorie étant régie par un régime juridique (Proposition 2).

Les 33 propositions de l’EASA dans l’A-NPD (4) reflètent les principes énoncés dans la Déclaration de Riga. Parmi ses 33 propositions, on retiendra :

  • catégorie « Open », la création de trois sous-catégories en fonction de la masse du drone : (CAT A0 : Jouets et mini-drones < à 1 kg ; CAT A1 : Très petit drones < à 4 kg et CAT A2 : Petits drones < à 25 kg) ;
  • zones sans drones ou limitée : possibilité pour les autorités compétences pourront définir deux types de zones d’exploitation : les « No-drone zones » et les « Limited-drone zone » ;
  • normes : l’EASA prône l’adoption de normes définissant les fonctions d’identification et de limitation de l’espace aérien des drones ;
  • sous-catégories de la catégorie Open : l’EASA prévoit également pour garantir la proportionnalité des règles, l’application d’exigences supplémentaires pour chacune des sous-catégories de la catégorie Open ;
  • catégorie « Opération spécifique » : Afin de réduire le risque à un niveau acceptable, une évaluation des risques de sécurité devra être effectuée par l’opérateur en tenant compte de tous les éléments qui contribuent au risque de l’opération particulière.

Les principaux impacts des propositions de l’EASA aboutiront à la révision du règlement (CE) n° 216/2008 (5).

Didier Gazagne
Lexing Droit Cybersécurité et cyberdéfense

(1) Déclaration de Riga du 6-3-2015.
(2) EASA Advance Notice of Proposed Amendment 2015-10.
(3) EASA, Concept d’opérations de drones
(4) EASA Opinion 01/2015.
(5) Règlement (CE) n° 216/2008 du 20-2-2008.




Clusis 2015 : Robotique et cybersécurité

Robotique et cybersécuritéAlain Bensoussan animait à Lausanne une conférence du Clusif sur le thème « Robotique et cybersécurité ».

A l’occasion de son Assemblée générale qui s’est tenue le 14 avril 2015, à Lausanne, le  Clusif a organisé une conférence intitulée « Du droit des robots à la cybersécurité des systèmes de contrôle ».

Le Clusis est une association suisse dédiée à la sécurité des systèmes d’information fondée en 1989 et qui compte aujourd’hui plus de 300 membres (experts, professeurs, responsables qualifiés de la sécurité, des PME ou organisations impliquées dans ces problématiques).

Cette année, les membres du Clusis ont eut le plaisir de convier leurs adhérents à une conférence sur le thème « Robotique et cybersécurité ».

La robotique figure au nombre des technologies clés à l’horizon 2020 et l’essor des projets techniques rend incontournable la problématique du cadre juridique applicable. La question du droit et de la cybersécurité sont déterminants de l’acceptabilité de cette technologie. L’activité robotique peut-elle s’autoréguler elle-même ou faut-il créer un cadre juridique spécifique ?

Au programme de cette conférence :

  • Faut-il un droit des robots ? Conférence de Maître Alain Bensoussan, avocat technologue, Cabinet Bensoussan, président et fondateur de l’Association du Droit des Robots (ADDR)
  • Faut-il certifier la cybersécurité des systèmes d’automatismes et de contrôle industriel (IACS en anglais, SCADA par exemple) ? Conférence de Monsieur Paul Théron, PhD, FBCI, Thales Communications & Security’s Cyberdefence Bids Manager and Expert on cyber-resilience.
  • Automatisation ou autonomisation ? Conférence de Maître Pascal Verniory, avocat, docteur en philosophie (option transdisciplinarité), juriste Etat-Major de la Direction générale des systèmes d’information de l’Etat de Genève.

Lieu : Hôtel Alpha-Palmiers, Rue du Petit-Chêne 34, Lausanne
Programme Clusis 2015 Robotique et cybersécurité
Renseignement et inscription