Systèmes d’armes létales autonomes : demain une guerre sans soldats ?

Systèmes d’armes létales autonomesDidier Gazagne participe le 11 avril à l’Assemblée nationale à une table ronde sur les enjeux liés aux systèmes d’armes létales autonomes.

Fabien Gouttefarde, député, membre de la commission de la défense nationale et des forces armées, organise une table ronde sur les enjeux liés aux systèmes d’armes létales autonomes le jeudi 11 avril 2019 à l’Assemblée nationale.

Les enjeux des systèmes d’armes létales autonomes

Cette table ronde a pour objet de présenter les enjeux éthiques, juridiques, politiques et stratégiques que posent l’essor de cette technologie des systèmes d’armes mortelles autonomes dans les rapports de l’Homme à la guerre.

Il s’agit selon les organisateurs de cette manifestation d’un sujet complexe qui « mérite l’intérêt et l’attention des parlementaires en raison des ruptures politiques et stratégiques qu’il comporte, notamment au regard des positions des autres grandes puissances militaires et économiques mondiales ».

Didier Gazagne, avocat, directeur de la Business Unit Défense & Sécurité – Drones – Risques du cabinet Lexing Alain Bensoussan Avocats, interviendra le Jeudi 11 avril 2019 de 14H30 à 18H00 avec Alix Desies, également avocate, au cabinet Lexing Alain Bensoussan Avocats, sur le thème : Quelle réponse française à la résolution européenne d’interdiction préventive des systèmes d’armes létales autonomes.

Au programme :

14h15 Accueil

14h30 Allocution d’ouverture

  • Fabien Gouttefarde, Député, membre de la Commission de la défense nationale et des forces armées

14h45 Table ronde :

Les enjeux liés aux systèmes d’armes létales autonomes
Demain une guerre sans soldats ?

  • Dr. Marie-des-Neiges Ruffo de Calabre, Université de Namur :

Les contraintes techniques, juridiques et éthiques d’une plus grande autonomie des robots militaires vis-à-vis de l’éthique militaire

  • J. Ancelin, Docteur en droit public, chercheur en programme post-doctoral, enseignant à l’Université de Bordeaux et à SciencesPo Bordeaux :

La France face à l’autonomie des moyens de combat dans les échanges internationaux

  • Didier Gazagne et Alix Desies, Avocats, Lexing Alain Bensoussan Avocats :

Quelle réponse française à la résolution européenne d’interdiction préventive des systèmes d’armes létales autonomes ?

17h15 Allocution de fin et remerciements

  • Fabien Gouttefarde, Député, membre de la Commission de la défense nationale et des forces armées.

Eric Bonnet
Avocat, Lexing Alain Bensoussan Avocats
Directeur de la communication juridique




Drones armés : une prise de conscience française confirmée

drones armés

Drones armés : la conformité au droit international. La France s’apprête à se doter de drones armés dans le contexte  des débats du Groupe d’experts gouvernementaux à l’ONU (1).

Notre précédent billet* mettait l’accent sur la difficile définition des systèmes d’armes létales autonomes (SALA). Ce second billet a pour objet l’analyse de la conformité de tels systèmes au droit international.

La conformité des drones armés au droit international

Il existe une confusion récurrente entre le drone armé, vecteur d’armes en tant que tel, et l’utilisation qui en est faite. Le rapport n°559 (2) a également tenté de clarifier cela : « Ii y a confusion entre une arme et la manière de s’en servir ».

Quatre aspects sont à distinguer :

  • la légalité des drones armés ;
  • la légalité de l’usage de drones armés par la France ;
  • la légalité prospective des SALA ;
  • la légitime défense : l’image ternie des drones armés découlant de leur usage par les américains.

1° De la légalité des drones armés

Le rapport n°559 affirme que le drone n’est pas en soi contraire au droit international de sorte que son interdiction serait non fondée. La problématique est pourtant mal formulée. Les rapporteurs affirment que « l’utilisation de drones armés n’est pas par nature contraire au droit international ». Bien au contraire. Si le drone n’est pas illégal par nature, en ce qu’il n’est qu’un vecteur d’armes, c’est justement son utilisation qui peut enfreindre le droit international.

Une seconde incohérence est à relever : tout en défendant l’idée que le drone n’est pas par nature illégal, les rapporteurs admettent que « les caractéristiques en termes de fiabilité (des drones) sont mal connues ». Or, c’était précisément ce point qu’il fallait clarifier afin de tarir les principales contestations.

2° De l’usage légal des drones armés par la France

Le Sénat a pu affirmer dans son rapport n° 559 que l’usage des drones armés par la France n’enfreindra pas les principes internationaux : « Les forces françaises, notamment à travers l’application des règles d’engagement fixées pour chaque opex, doivent respecter l’ensemble de ce corpus juridique » (Rapport n° 559, note 4 p. 50).

L’emploi de drones armés sera encadré de la même façon que n’importe quelle arme de guerre par des règles d’engagement : « La « chaîne d’engagement » pour une opération où le drone tire lui-même serait identique à celle en vigueur pour toutes les opérations déjà menées par des avions de combat ou par un couple drone-avion de combat. C’est cette chaîne d’engagement qui garantit la légalité et la légitimité de la mission. Elle repose sur un processus précis d’identification de la cible, de vérification des règles d’engagement, d’estimation préalable des dommages collatéraux, et, enfin, de décision par l’autorité en charge sur le théâtre d’opérations ».

Les règles d’engagement sont telles qu’à chaque action, l’analyse de terrain doit permettre d’apprécier la proportionnalité de l’offensive, sa nécessité et assurer la distinction entre combattants et non combattants. Sur ce dernier point, le système de drone armé devrait assurer le respect du principe de distinction. Ses charges utiles lui permettent d’obtenir les informations en temps réel et de procéder à un tir d’opportunité instantané après analyse des possibles dommages collatéraux. Du fait de la prédominance ces dernières années des conflits asymétriques, cette capacité de distinction devient une nécessité (3).

3° De la légalité prospective des SALA

Le droit des conflits armés ne semble pas remis en question du seul fait de la présence des drones armés existants. En revanche, la question pourra se poser pour les SALA. Néanmoins, l’article 36 de la Convention de Genève est une première protection au dévoiement des nouvelles technologies en matière d’armement. En vertu de cet article, les nouvelles armes pourront être déployées une fois leur capacité à se conformer au droit international démontrée.

Le Groupe d’experts gouvernementaux sur les SALA devraient ouvrir la voie à l’identification d’une réglementation dans le contexte des objectifs et des buts de la Convention sur certaines armes classiques. La publication d’un code de conduite apparaît comme une solution première.

Des exemples de principes ont été suggérés :

  • N’utiliser les SALA que contre certains objectifs militaires ;
  • En cas de doute, ne pas tirer ;
  • Prévoir un système de désactivation à distance ;
  • Faire application du principe de subsidiarité.

4° De la légitime défense : l’image ternie des drones armés découlant de leur usage par les américains

Il est vrai que les opérations américaines au Moyen-Orient ont suscité de vifs débats quant à la conformité des drones au droit international. En réalité, ces critiques sont teintées par le caractère illégitime des interventions américaines dénoncées. Le débat sur le recours à la force des Etats-Unis se confond donc avec celui sur la légalité des drones en tant qu’arme.

En effet, le débat ne concerne plus les drones mais le droit d’ingérence d’un pays tiers. A cet égard, le rapport prend le soin de distinguer les opérations françaises des opérations américaines, sources premières de critiques. Pourtant, c’est sur les mêmes fondements que la France justifie son recours à la force, par exemple « en s’appuyant sur les notions de légitime défense contre des acteurs non étatiques et le consentement des États à autoriser ces opérations sur leur territoire ».

Les interventions en Centre-Afrique, au Mali et Irak ont ainsi été justifiées. Toutefois, « dans le cas de la Syrie, il n’existait ni demande de la part de l’Etat syrien, ni résolution du Conseil de sécurité de l’ONU. C’est donc sur le fondement de la légitime défense que la France est intervenue. La notion de légitime défense peut être invoquée, dans la conception française, en réponse à une attaque armée dépassant un certain seuil de gravité, ce qui était assurément le cas des actions menées par Daesh. Il s’agit cependant, non de la légitime défense individuelle, mais de la légitime défense collective : l’Irak a fait l’objet d’une agression armée de la part de Daesh et l’Irak a demandé l’assistance de la communauté internationale. Ainsi, l’intervention en Syrie doit être considérée comme la prolongation de l’intervention menée en Irak à la demande des autorités de ce pays ».

Cette appréciation de la légitime défense française semble tout aussi subjective et extensive que celle invoquée par les Etats-Unis et que le Sénat ne manque pas de mettre en doute : « Il existe en effet dans certains cas des doutes sérieux sur le respect (par les américains) du cadre fixé par le droit international : frappes menées par les services de renseignement, invocation d’une légitime défense comprise de manière très extensive » (Rapport n°559, p. 51 & 52, Partie II, C, 2). Ainsi, par analogie à la critique portée sur l’appréciation de la légitime défense revendiquée par les américains, la justification de l’intervention française en Syrie pour légitime défense paraît tout aussi contestable. Mais ceci est un autre débat.

L’essentiel est que la France s’est saisie de la question des drones armés. De nombreuses questions restent encore sans réponse. Ces difficultés attestent finalement d’un droit international qui ne correspond plus totalement à la réalité des conflits et aux intérêts des grandes puissances.

Didier Gazagne
Alix Desies
Lexing Défense et sécurité – Drones

* Notre précédent billet mettait l’accent sur la difficile définition des systèmes d’armes létales autonomes (SALA) : « Drones armés – Une prise de conscience française confirmée : une notion aux contours mal définis  » (paru le 08-10-2018).

(1) Compte rendu de la réunion d’experts sur certaines armes classiques de mai 2014.
(2) Rapport d’information n°559 « Drones d’observation et drones armés : un enjeu de souveraineté », Doc. Sénat, 23-5-2017.
(3) Pour aller plus loin : Minilex, Droit des systèmes autonomes, Edition Larcier, à paraître en 2019.
(3) Article précédent : « Drones armés,  une prise de conscience française confirmée (1/2) : une notion aux contours mal définis » du 8-10-2018.
(3) Article sur les SALA : « Faut-il interdire les systèmes d’armes létales autonomes (SALA) ? » du 28-9-2018.




Drones armés : une prise de conscience française confirmée

Drones armés : une notion aux contours mal définis. Restée longtemps à l’écart, la France s’apprête à armer ses drones aériens.

Tandis que ses alliés déployaient des drones armés et recevaient la foudre des opposants, la France était restée jusqu’en 2017 dans l’expectative.

Il est cependant constant que les avancées technologiques deviennent incontournables. Leurs applications militaires visant à assurer une supériorité opérationnelle, bien qu’éphémère, ne  peuvent rationnellement être négligées.

Les craintes que suscite l’armement d’un système autonome sont légitimes. Toutefois, elles doivent être tempérées pour comprendre les enjeux, les risques et les avantages.

A cet égard, le rapport d’information n°559 de la Commission des affaires étrangères, de la défense et des forces armées, publié le 23 mai 2017 (1), avait apporté une première réponse pour défendre la position française, favorable à ce nouveau système d’armes. L’objectif était double : démêler les amalgames technologiques et juridiques sur les drones armés et démontrer leur conformité au droit international.

Le rapport d’information n°996 de la Commission de la défense nationale et des forces armées du 30 mai 2018 (2) s’aligne sur le premier rapport. Il souligne notamment l’importance de l’intégration du numérique dans les systèmes d’armes.

L’armement des drones présente des avantages stratégiques indéniables. En revanche, son cadre juridique mérite d’être clarifié, dans la mesure où le sujet reste toujours source de débat.

La nécessité d’ouvrir le dossier sur les drones armés : la reconnaissance d’une capacité opérationnelle accrue

Les nombreuses objections portées à l’encontre des drones armés avaient dissuadé, dans un premier temps, une France écartelée dans ses choix budgétaires.

S’il est évident que des questions d’éthique se posent, la prudence ne doit pas être un facteur paralysant. Les hésitations des uns permettent aux autres de les devancer. Dans le cas présent, une dizaine de pays emploient déjà des drones armés, consacrant ainsi le retard français.

Certes, la détention de drones armés par des pays étrangers n’est pas une justification suffisante d’un point de vue éthique. Dans le rapport n°559, la France s’est donc attachée à défendre, de façon pragmatique, l’avantage militaire que conférerait l’armement des drones. Parmi ses avantages, nous en avons retenu au moins quatre.

1° La réduction de la boucle décisionnelle

Dans un premier temps, « les drones (de renseignement) sont déjà fortement engagés dans les missions de tir ». Ils sont devenus un maillon essentiel à l’usage de la force armée. Ainsi, leur armement ne ferait que « réduire la boucle de décision entre le repérage d’un objectif à haute valeur ajoutée et sa neutralisation ». Les drones attendront le moment le plus opportun pour un tir de précision et analyseront les effets en temps réel. L’avantage stratégique en sera d’autant renforcé que leur capacité d’endurance est cinq fois plus importante que celle des avions traditionnels.

2° L’optimisation des ressources rares

Dans un deuxième temps, utiliser les drones armés permettrait d’optimiser les ressources rares que sont les avions de chasse. « Ces capacités seront soulagées dans des missions ne nécessitant pas une importante puissance de feu ».

3° La protection des pilotes

Dans un troisième temps, l’argument récurrent est celui du moindre risque pour le pilote. Cet avantage reste relatif car l’usage d’un drone armé ne s’envisage pour l’heure qu’en zones permissives.

4° Un emploi limité

Enfin, cet armement ne serait envisagé que dans « certains cas ». Ces cas seraient limités aux applications présentant un avantage tactique ou stratégique sur le terrain. La question de l’armement ne concernerait que les drones MALE et les minis-drones explosifs. L’armement des drones tactiques n’est, quant à lui, pas envisagé. Ainsi, les drones armés se voient conférer le rôle d’un outil complémentaire – et non de substitution – utilisé selon les règles de la guerre.

Ces réflexions ne font que recentrer le débat, comme de nombreux experts ont pu le faire, sur la place des drones armés.

Malgré les efforts de concision entrepris par les rapporteurs, nous pouvons regretter, si ce ne sont des amalgames, du moins un manque de clarté dans les explications apportées. Ces imprécisions portent pourtant sur des éléments clés de compréhension des enjeux des drones armés. La plus surprenante est la distinction opérée entre les drones, d’une part, et les robots (« autonomes »), d’autre part. Cette distinction n’est ni claire, ni réellement expliquée.

Drones armés : une distinction à clarifier entre « drones » et « robots autonomes »

Compte tenu de l’importance de la controverse, le rapport n°559 cherche à édulcorer sa position. Il corrige ainsi l’idée reçue selon laquelle le drone n’est pas un aéronef sans pilote mais un aéronef piloté à distance.

Reste à savoir ce que l’on entend par « pilote ». S’agit-il de l’individu ou de l’action de l’individu ? Dans la première hypothèse, le drone est bien sans pilote (humain) à son bord. En revanche, dans la seconde, le drone est effectivement piloté à distance. En rejetant la notion de « sans pilote », cette nuance cherche, en réalité, à rassurer l’opinion publique, qui pourrait l’entendre comme un objet non contrôlé. Cette précision a donc son importance.

Cependant, par la suite et sur la base de cette précision, le Sénat distingue le concept de drone de celui de robot. Il attribue à ce dernier une nouvelle définition pour le moins contestable. Ainsi, le drone serait toujours piloté (à distance) alors que le robot, « engin autonome », ne le serait pas.

« Il convient de bien distinguer les systèmes pilotés que sont les drones des armes dites autonomes (robots) » (Rapport d’information n°559, p. 45).

En consacrant l’autonomie comme caractéristique différenciatrice entre le drone et le robot, le rapport n°559 commet une erreur fondamentale. Cette incohérence représente parfaitement la difficulté à la base de l’ensemble des débats entourant les drones armés. Les défenseurs et opposants aux drones armés débattent sur un objet pour lequel il n’existe aucune définition consensuelle, notamment en ce qui concerne son autonomie.

La notion d’autonomie peut revêtir de nombreuses définitions puisqu’il existe différents degrés d’autonomie selon le degré de contrôle humain. Ces niveaux dépendent également de la complexité du système, de sa capacité à percevoir son environnement et à agir en fonction, sans intervention tierce.

Ceci suppose de revenir sur les deux assertions contenues dans le rapport :

1° Le robot serait parfaitement autonome et n’existerait pas à ce jour

Pour le distinguer des drones, le rapport octroie à la notion de robot le caractère d’autonomie totale. Or, il affirme que cette pleine autonomie n’existe pas encore. Par déduction, le robot n’existerait pas ? Cette approche est fausse. De nombreux robots sont en usage depuis longtemps dans les usines, dans les armées, dans les hôpitaux et dans les entrepôts.

L’Atilf (2) définit le robot comme un « appareil effectuant, grâce à un système de commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique ou domestique ».

Si un robot peut effectuer une tâche de manière autonome, il y aura toujours un être humain maintenant dessus un certain contrôle : dans la programmation de la tâche comme dans la surveillance de son exécution. La mission du robot est précise et toujours limitée, restreignant de fait son caractère autonome.

Caractériser le robot comme étant seulement un système pleinement autonome est par conséquent inapproprié.

2° Le drone est toujours piloté

S’il est vrai que le drone est toujours piloté (à distance), de la même façon que le robot, ce pilotage peut être manuel ou automatique. Certains avions de ligne évoluent en mode autonome, même en présence du pilote.

Le drone et le robot peuvent tous deux fonctionner en mode automatique, voire autonome. L’homme reste toujours au minimum sur la boucle, soit dans le pilotage, soit dans la programmation de la mission, soit dans la supervision. En conséquence, distinguer les deux systèmes de la sorte est un défaut d’appréciation car les deux sont de même nature ; aucun n’étant encore totalement autonome.

Dans le rapport n°559 [Partie II, C, 2), b), p. 51-52], il s’avère que le groupe de travail n’a en réalité employé la notion de robot qu’en référence aux systèmes d’armes létales autonomes (SALA), cœur de la polémique. Entamer une réflexion sur la distinction entre drones et SALA est essentiel pour rationaliser le débat. Seulement, l’emploi du terme « robot » pour définir exclusivement les SALA est un abus de langage pouvant induire à des confusions inutiles alors que le débat est déjà complexe.

La difficile définition des SALA

Les réflexions actuelles autour des SALA concernent pour partie leur définition, notamment leur degré d’autonomie. Le compte rendu de la réunion d’experts sur certaines armes classiques de mai 2014 atteste de cette difficulté.

Il a été globalement admis que le caractère autonome pouvait dépendre des fonctions de l’appareil, de l’environnement dans lequel il a vocation à opérer et de la complexité des tâches envisagées. Mais cette base d’appréciation est indéfinie. Certains experts ont ainsi recommandé que l’appréciation de l’autonomie dépende de critères objectifs clés. Par exemple, en matière d’armes autonomes, l’élément déterminant est leur capacité à cibler et à engager le tir sans intervention humaine.

D’autres intervenants ont insisté sur l’importance de prendre en compte l’«implication humaine appropriée» pour aborder la question de l’autonomie. Ici, le caractère autonome dépendrait de l’existence ou non d’un contrôle humain sur les « fonctions critiques » du SALA.

Dans son intervention à la réunion d’experts d’avril 2016 sur les SALA, la France avait estimé que l’autonomie caractéristique d’un SALA devait être entendue comme « complète ». C’est-à-dire «sans aucune forme de supervision humaine à partir de l’activation du système » (3).

Lors de la 5ème Conférence d’examen de la Convention sur certaines armes classiques de décembre 2016, un groupe d’experts gouvernementaux (GEG) a été créé. Il a pour mission de travailler, entre autres, sur les caractéristiques de l’autonomie des SALA, ainsi que sur leur réglementation.

Depuis sa constitution, le groupe d’experts s’est réuni à trois reprises. Ainsi, à la date du 31 août 2018, le GEG reprend la position de la France et raisonne par la négative (4). Tout système d’arme qu’il qualifie de non autonome se trouve exclu de son périmètre de réflexion. Il s’agit de «systèmes d’armes automatisés ou téléopérés, c’est-à-dire qui mettent l’intelligence artificielle au service de la décision de l’homme».  A ces systèmes, s’opposent donc «les SALA qu’il convient de concevoir comme des systèmes pleinement autonomes».

Par conséquent et pour l’heure, les SALA sont des «systèmes qui n’existent pas encore» et pour lesquels «l’autonomie doit être entendue comme complète, c’est-à-dire sans aucune forme de supervision humaine à partir de l’activation du système et une absence de subordination à une chaîne de commandement» (4).

Didier Gazagne
Alix Desies
Lexing Défense & SécuritéDrones

NB : Cet article sera suivi d’un second billet ayant pour objet l’analyse de la conformité de tels systèmes au droit international :  « Drones armés – Une prise de conscience française confirmée : la conformité au droit international  » (à paraître le 18-10-2018).

(1) Rapport d’information n°559 « Drones d’observation et drones armés : un enjeu de souveraineté », Doc. Sénat, 23-5-2017.
(2)  Rapport d’information n°996 « Les enjeux de la numérisation des armées », Doc. Ass. Nat., 30-5-2018.
(3) Réunion d’experts sur les systèmes d’armes létaux autonomes (SALA), Genève 11-15 avril 2016, Intervention française.
(4) « Caractérisation », discours de la France du 28 août 2018 lors de la réunion du Groupe d’experts gouvernementaux (Genève 27-31 août 2018), Convention sur certaines armes classiques.




Faut-il interdire les systèmes d’armes létales autonomes (SALA) ?

Systèmes d’armes létaux autonomesUne résolution européenne prône l’interdiction, à l’échelle internationale, des systèmes d’armes létales autonomes.

Cette résolution du Parlement européen du 12 septembre 2018 (1) demande aux États membres et au Conseil d’œuvrer au lancement de négociations internationales pour un instrument juridiquement contraignant qui interdise les systèmes d’armes létales autonomes (SALA) dont les fonctions critiques du choix et de l’attaque des cibles individuelles, échappent à un contrôle humain significatif (2).

Cette résolution défend deux positions majeures :

  • adopter en urgence une position commune sur les systèmes d’armes létales autonomes qui garantisse un véritable contrôle humain sur les fonctions critiques du système ;
  • empêcher la mise au point et la production de tout systèmes d’armes létales autonomes, autrement dit, empêcher tout programme de recherche tendant vers l’élaboration d’un systèmes d’armes létales autonomes.

Les fondements de l’interdiction des systèmes d’armes autonomes

La résolution soulèvent quatre arguments :

  • les systèmes d’armes létales autonomes pourraient « modifier radicalement la façon de faire la guerre et déclencher une course aux armements débridée et sans précédent » (considérant E) ;
  • l’utilisation de systèmes d’armes létales autonomes pose des « questions éthiques et juridiques essentielles quant au contrôle exercé par l’homme, en particulier au regard de décisions critiques, telles que le choix et l’attaque de cibles » (considérant F) ;
  • l’utilisation de systèmes d’armes létales autonomes soulève des questions essentielles quant à « l’applicabilité du droit international en matière de droits de l’homme, du droit international humanitaire et des normes et valeurs européennes concernant les actions militaires futures »  (considérant I).
  • Enfin, « tout système d’armes létales autonome peut rencontrer un dysfonctionnement en raison d’un mauvais codage ou d’une cyberattaque commise par un État ennemi ou un acteur non étatique » (considérant K).

La résolution du Parlement européen (PE) a été adoptée par 566 voix pour, 47 contre et 73 abstentions. Elle prend appui sur une première étude intitulée « Human rights implication of the usage of drones and unmanned robots in warfare » du 3 mai 2013. Cette étude donnait dès 2013 un aperçu de l’utilisation actuelle et probable de drones et de robots autonomes et examinait les implications juridiques pertinentes en vertu des droits de l’homme, du droit international humanitaire et de la Charte des Nations unies.

L’étude concluait que l’incertitude – quant aux normes juridiques applicables, au développement et à la prolifération rapides des drones et de la technologie robotique, et au manque de transparence et de responsabilité des politiques actuelles – risquait de polariser la communauté internationale et de saper la règle de la loi et, en fin de compte, de déstabiliser l’environnement de sécurité international dans son ensemble.

L’étude proposait trois recommandations politiques pour la politique étrangère européenne :

  1. L’UE devrait faire de la promotion de l’état de droit en matière de développement, de prolifération et d’utilisation de systèmes d’armement sans pilote une priorité déclarée de la politique étrangère européenne ;
  2. L’étude invitait l’UE à lancer un dialogue politique intergouvernemental afin de parvenir à un consensus international :
    1. sur les normes juridiques régissant l’utilisation de systèmes d’armes sans pilote actuellement opérationnels, et
    2. sur les contraintes juridiques et / ou des réserves éthiques pouvant s’appliquer au développement, à la prolifération et à l’utilisation futurs de systèmes d’armes létaux autonomes.
  3. Sur la base du consensus international qui en résulterait, l’étude invitait l’UE à œuvrer en faveur de l’adoption d’un accord international contraignant ou d’un code de conduite non contraignant visant à restreindre le développement, la prolifération ou l’utilisation de certains systèmes d’armes sans pilote consensus obtenu.

Les débats devant le Groupe d’Experts Gouvernementaux (GEG) des États parties à la convention sur certaines armes classiques (CCW)

Depuis 2016, le débat est également engagé à l’ONU. Un groupe d’experts gouvernementaux (GEG [2]) à la convention sur certaines armes classiques a été créé en 2016 par la cinquième Conférence d’examen des parties contractantes à la Convention sur certaines armes classiques (CCW).

Le GEG s’est d’abord réuni en novembre 2017. Dans son rapport de session 2017, le GEG a conclu que :

  • la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (CCW) offrait un cadre approprié pour traiter la question des nouvelles technologies dans le domaine des systèmes d’armes létaux autonomes ;
  • le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armes, y compris à la mise au point et à l’utilisation potentielles de systèmes d’armes létaux autonomes;
  • le déploiement de tout système d’armes quel qu’il soit dans le cadre d’un conflit armé continue de relever de la responsabilité des États ;
  • le GEG devrait consacrer la prochaine phase de ses discussions à la caractérisation des systèmes d’armes létaux autonomes en question afin de dégager une conception commune des notions et des caractéristiques pertinentes au regard des objectifs et des buts de la CCW ;
  • le GEG devrait examiner plus avant les aspects de l’interaction homme-machine dans la mise au point, le déploiement et l’emploi des technologies émergentes dans le domaine des systèmes d’armes létaux autonomes.

Les principaux problèmes sur les systèmes d’armes létaux autonomes ont été abordés lors des réunions de 2018 du GEG. Ils ont portés sur :

  • la caractérisation des systèmes envisagés afin de promouvoir une compréhension commune des concepts et des caractéristiques correspondant aux objectifs et aux buts de la Convention sur certaines armes classiques ;
  • l’examen approfondi de l’élément humain dans l’utilisation de la force létale ; les aspects de l’interaction homme-machine dans le développement, le déploiement et l’utilisation de technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ;
  • l’examen des applications militaires potentielles de technologies connexes dans le contexte des travaux du Groupe.

Quels sont les principes dégagés par le GEG lors de la dernière réunion du 31.08.2018 ?

Le GEG s’est accordé sur dix principes lors de leur dernière réunion le 31 août 2018 :

  1. le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armement, y compris au développement potentiel et à l’utilisation de systèmes d’armes autonomes létaux ;
  2. la responsabilité humaine des décisions relatives à l’utilisation des systèmes d’armement doit être maintenue et la responsabilité ne peut être transférée aux machines. Cela devrait être considéré dans l’ensemble du cycle de vie du système d’arme autonome ;
  3. la responsabilité du développement, du déploiement et de l’utilisation de tout nouveau système d’armes dans le cadre de la Convention sur certaines armes classiques doit être assurée conformément au droit international applicable, notamment par le fonctionnement de tels systèmes au sein d’une chaîne humaine responsable de commandement et de contrôle ;
  4. conformément aux obligations des États en vertu du droit international, l’étude, le développement, l’acquisition ou l’adoption d’une nouvelle arme, de moyens ou de méthodes de guerre, (la détermination devant être préalable à son emploi), dans certaines ou dans toutes les circonstances, ne peut être interdit par une loi internationale ;
  5. lors du développement ou de l’acquisition de nouveaux systèmes d’armes basés sur des technologies émergentes dans le domaine des SALA, la sécurité physique, les garanties non physiques appropriées (y compris la cybersécurité contre le piratage informatique ou l’usurpation de données), le risque d’acquisition par des groupes terroristes et le risque de prolifération doivent être considérés ;
  6. les évaluations des risques et les mesures d’atténuation devraient faire partie du cycle de conception, de développement, de test et de déploiement des technologies émergentes dans tous les systèmes d’armes ;
  7. l’utilisation de technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers doit être envisagée avec pour objectif le respect du droit international humanitaire et les autres obligations juridiques internationales applicables ;
  8. lors de l’élaboration de mesures politiques potentielles, les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ne devraient pas être anthropomorphisées ;
  9. les discussions et les mesures politiques éventuelles prises dans le cadre de la Convention ne devraient pas entraver les progrès ou l’accès aux utilisations pacifiques des technologies autonomes intelligentes ;
  10. la Convention sur certaines armes classiques offre un cadre approprié pour traiter la question des technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers dans le contexte des objectifs et buts de la Convention, qui cherchent à établir un équilibre entre nécessité militaire et considérations humanitaires.

Quelle est la position de l’Allemagne et de la France sur les systèmes d’armes létaux autonomes ?

Lors des réunions du GEG en novembre 2017, l’Allemagne et la France ont formulé dans un document de travail plusieurs propositions, notamment la définition du périmètre de travail des systèmes d’armes létaux autonomes (SALA).

L’Allemagne et la France proposent d’exclure de la définition de SALA :

Les systèmes pilotés à distance et automatisés, les systèmes porteurs de charges conventionnelles explosant avec une minuterie réglée, les systèmes téléopérés (par exemple des drones), les systèmes automatisés de défense antimissile, les torpilles, les systèmes de guidage et de navigation ainsi que les systèmes de surveillance et de détection.

L’Allemagne et la France considèrent en outre que la question de la définition même de « SALA » évoluera avec les progrès technologiques. La définition exacte qui pourra être adoptée à un stade ultérieur, dépendra également de la question de savoir quels types de mesures réglementaires sont recherchés et quel statut politique ou juridique devraient avoir ces SALA.

Dans leur déclaration politique commune, l’Allemagne et la France ont affirmé qu’elles partageaient la conviction que les humains devraient continuer à être en mesure de prendre les décisions finales concernant l’utilisation de la force létale et devrait continuer à exercer un contrôle suffisant. En outre, les États parties devraient rappeler que les règles du droit international, en particulier droit international humanitaire, s’appliquent pleinement au développement et à l’utilisation des SALA.

Quelles est la position des États-Unis sur les systèmes d’armes létaux autonomes ?

Contrairement à l’Allemagne et la France, les Etats-Unis estiment qu’il n’est pas nécessaire que le GEG adopte une définition de travail des SALA. Au lieu de cela, les Etats-Unis soutiennent la promotion d’une compréhension générale des caractéristiques des SALA. Pour les Etats-Unis, l’absence d’une définition de travail spécifique n’est pas une cause devant pénaliser les travaux du GEG dans la compréhension des problèmes potentiels posés par les SALA. Le droit de la guerre fournit un système de réglementation solide et cohérent pour les armes. Par conséquent, le GEG peut discuter des problèmes que posent potentiellement les « SALA » sous l’objectif de la Convention sur certaines armes classiques (CCW) sans devoir se mettre d’accord sur une définition de travail spécifique des SALA.

Les règles existantes d’application générale s’appliquent à l’utilisation de toutes les armes, y compris pour toute arme réputée être des « systèmes d’armes létaux autonomes ».

Les Etats-Unis ont également émis dans deux documents de travail distincts (WP.6 et WP.7) les positions suivantes :

  • le droit de la guerre n’exige pas qu’une arme, même une arme semi-autonome ou autonome, procède à des déterminations légales. Pour les USA, le droit de la guerre n’exige pas qu’une arme détermine si sa cible est un objectif militaire, mais plutôt que l’arme puisse être employée conformément au principe de distinction. De même, le droit de la guerre n’exige pas qu’une arme établisse des déterminations de proportionnalité, par exemple si l’on s’attend à ce qu’une attaque entraîne des dommages accidentels à des civils ou à des biens civils excessifs par rapport à l’avantage militaire concret et direct attendu ;
  • les machines ne sont pas des États ou des personnes en vertu de la loi. Les questions de responsabilité juridique sont des questions sur la manière dont les principes existants et bien établis en matière de responsabilité des États et des individus s’appliquent aux États et aux personnes qui utilisent des systèmes d’armes dotés de fonctions autonomes ;
  • les États sont responsables des actes des personnes faisant partie de leurs forces armées. Il s’ensuit que les États sont responsables de l’emploi d’armes à fonctions autonomes par des personnes faisant partie de leurs forces armées ainsi que d’autres actes de ce type pouvant être imputables à un État en vertu du droit de la responsabilité des États. Les États, en garantissant la responsabilité de tels comportements, peuvent recourir à divers mécanismes, notamment les enquêtes, la responsabilité pénale individuelle, la responsabilité civile et les mesures disciplinaires internes ;
  • comme pour toutes les décisions d’utiliser des systèmes d’armes, les personnes sont responsables de leurs décisions individuelles d’utiliser des armes avec des fonctions autonomes. Ainsi, les personnes qui utilisent des armes ayant des fonctions autonomes pour violer l’interdiction de cibler la population civile peuvent être tenues responsables de telles violations ;
  • les responsabilités de toute personne appartenant à un État ou à une partie au conflit peuvent dépendre du rôle de cette personne dans l’organisation ou des opérations militaires. De manière générale, les personnes chargées de mettre en œuvre une partie à un conflit ont l’obligation de prendre les décisions et jugements nécessaires requis par cette obligation internationale. A titre d’exemple, une partie à un conflit a l’obligation de prendre des précautions réalisables pour réduire les risques pour les civils, par exemple en émettant des avertissements avant les attaques. Le commandant compétent chargé de l’attaque déterminera s’il est possible de fournir un tel avertissement.

Quelle est la position de la Fédération de Russie sur les systèmes d’armes létaux autonomes ?

La Fédération de Russie a également fait part de sa position dans un document de travail (WP.8) dans lequel :

  • La Fédération de Russie estime que le GEG pourrait procéder à un examen approfondi des dispositions existantes du droit international, y compris le droit international humanitaire et les droits de l’homme qui pourrait éventuellement être appliqué aux SALA.
  • La Fédération de Russie part du principe que l’examen de nouvelles questions au sein de la CCW devraient être réalisé, en tenant compte à la fois des préoccupations humanitaires et de la défense légitime des intérêts des États. Cela dit, la nécessité de répondre aux préoccupations humanitaires ne peut être utilisée comme seule et unique condition suffisante pour imposer des régimes restrictifs et prohibitifs de certaines armes.

Résolution du PE : une prise de position hâtive qui prive d’intérêt le travail du GEG

Hormis avoir confirmé que les systèmes d’armes létales autonomes n’existent pas aujourd’hui ou encore que les systèmes automatisés ne devraient pas être assimilés à des systèmes d’armes létales autonomes, le Parlement européen ne semble pas avoir pris en compte l’ensemble des réflexions menées par le GEG.

En effet, la volonté de confirmer le principe d’une interdiction des systèmes d’armes létales autonomes avant la tenue de la réunion du GEG, prévue en novembre 2018, remet en cause la raison d’être de ce groupe.

Dans un contexte où la technologie entre une fois de plus en conflit avec l’éthique, faut-il y voir la volonté d’adopter une résolution guidée davantage par des convictions morales que par des considérations rationnelles ?

La nomination d’experts gouvernementaux répondait à un objectif précis que semble négliger le Parlement européen : allier la réalité des enjeux technologiques avec les considérations éthiques et juridiques.

La volonté d’adoption d’une position commune européenne et d’un instrument juridique contraignant au niveau international prônant l’interdiction des systèmes d’armes létales autonomes pourrait n’avoir qu’un effet symbolique.

En effet, elle se heurterait au principe de réalité.

A supposer qu’une telle position commune européenne se concrétise un jour, elle serait en total décalage avec les ambitions potentielles de pays tels que la Chine, les Etats-Unis, la Fédération de Russie, l’Inde ou encore l’Arabie Saoudite.

Comment l’Europe pourra répondre de cette décision le jour où, dans une opération de défense pour la paix, elle enverra son armée d’hommes et de femmes se battre contre des systèmes d’armes létales autonomes, développés par des Etats ne partageant pas ses considérations politiques et éthiques.

Il semblerait donc nécessaire que le Parlement européen travaille de concert avec le groupement d’experts gouvernementaux afin qu’une solution la plus réaliste et rationnelle possible puisse être conçue intégrant les principes et valeurs fondateurs de l’Europe.

L’Europe doit peser dans les débats sur les systèmes d’armes létales autonomes pour maintenir son influence au niveau international.

Didier Gazagne
Alix Desies
Lexing Défense & SécuritéDrones

(1) Résolution du Parlement européen du 12 septembre 2018 sur les systèmes d’armes autonomes (2018/2752(RSP)).
(2) Groupe d’experts gouvernementaux, GEG en français ou GGE en anglais.




L’IA, une régulation de rupture selon un principe général de neutralité

régulation de ruptureA l’occasion de la 2ème édition du salon AI Paris, Alain Bensoussan est intervenu le 12 juin 2018 sur les enjeux de construction d’un cadre juridique adapté à l’intelligence artificielle.

Selon Alain Bensoussan, « Les bâtisseurs de demain sont les codeurs. Le béton virtuel est la solution pour organiser la nouvelle civilisation que j’ai appelée la robothumanité ».

Selon lui, la responsabilité des codeurs est immense car les risques d’algorithmes malfaisants sont déjà réels (espionnage, chatbot discriminant, véhicule autonome défaillant, etc.). Il faut qu’on puisse avancer avec prudence et sur la base de mesures d’impact. Alain Bensoussan prône donc la nécessité de mettre en place « une régulation de rupture » selon un principe général de neutralité.

Une régulation de rupture

Le droit classique est en effet inadapté, d’où la nécessité de penser, un nouveau droit. « La régulation classique est en train d’imploser, car les IA sont autonomes grâce à leur fonction d’apprentissage » (deep learning et réseaux neuronaux).

Selon Alain Bensoussan, dans une société en pleine révolution technologique, il convient de transposer à l’IA l’article premier de la loi informatique et liberté qui prône depuis 1978 que « l’informatique doit être au service de chaque citoyen ».

Une gouvernance à vocation universelle devra être adoptée pour permettre un développement de l’intelligence artificielle (IA) qui bénéficie à tous.

Liberté, sécurité et dignité

« L’enjeu de cette régulation de rupture est la liberté avant tout, puis la sécurité et la dignité ».

Les IA devront nécessairement être soumises à des règles éthiques, nonobstant l’émergence d’un nouveau cadre juridique prenant en compte l’autonomie de décision et d’action du robot par rapport aux êtres humains, y compris le concepteur de la plateforme d’intelligence artificielle.

Selon Alain Bensoussan, il faut dès aujourd’hui créer une culture du code éthique by design et responsabiliser les créateurs de solutions d’IA.

A. Moreaux, «Le droit s’impose au salon de l’IA»,  Affiches Parisiennes, 15 juin 2018.
H. Pellegrin, «AI Paris : Alain Bensoussan alerte sur les enjeux de régulation de l’intelligence artificielle», TOM.travel, 13 juin 2018.




Informatique affective et interfaces homme machine empathiques

Informatique affectiveSi l’ informatique affective permet de faciliter et d’enrichir les interactions homme machine, les problématiques juridiques inhérentes à ces technologies doivent être prises en compte.

Applications de l’informatique affective

L’informatique affective est un domaine de recherche ayant trait à l’informatique, à la psychologie et aux sciences cognitives.

L’objectif est de développer la faculté de la machine à simuler l’empathie de la machine c’est-à-dire de reconnaître et d’interpréter les émotions et d’adapter son comportement, c’est pourquoi on parle aussi d’intelligence artificielle émotionnelle.

Le terme d’informatique affective est utilisé depuis la publication par Rosalind Picard d’un article fondateur dans la revue du MIT en 1995 (1). Selon elle, pour interagir de manière naturelle et intelligente avec les humains, les ordinateurs ont besoin de la capacité au moins de reconnaître et exprimer des émotions.

Les applications de l’informatique affective sont multiples. Elles sont évidentes par exemple concernant les robots humanoïdes et sociaux mais peuvent couvrir d’autres domaines, par exemple le chatbot d’un service commercial capable de détecter la colère d’un client et d’adapter ses réponses, une plateforme de e-learning s’adaptant aux facultés d’attention de l’utilisateur, une voiture connectée détectant la fatigue du conducteur ou encore en matière de jeux vidéo ou de publicité.

Technologies utilisées par l’ informatique affective

Les techniques et paramètres utilisés par l’informatique affective et les interfaces homme machine empathiques pour détecter les émotions des utilisateurs sont multiples.

  • L’analyse du langage
  • L’analyse de la voix
  • L’analyse des expressions faciales et du langage corporel
  • L’analyse des indicateurs physiologiques (mesure du rythme cardiaque, de la pression artérielle, de la température corporelle, électro-encéphalographie, etc.)

D’autre part, des technologies d’intelligence artificielle et de machine learning peuvent être mises en œuvre par la machine afin de simuler l’empathie.

Risques juridiques de l’informatique affective

L’informatique affective et les interfaces empathiques peuvent soulever des questions éthiques mais certaines questions juridiques doivent également être traitées en amont du développement ou du recours ces technologies.

Par exemple, en cas de recours à ces technologies à des fins commerciales, à destination de consommateurs, pourraient émerger des questions liées au consentement. En cas d’achat par l’intermédiaire d’une interface ou d’un assistant intelligent et empathique, le consentement du consommateur être considéré comme vicié s’il s’avérait que des manœuvres dolosives ont été mises en œuvre. La mise en œuvre d’une stratégie d’exploitation de l’état émotionnel du consommateur afin de faire réaliser un acte d’achat pourrait être considérée comme telle.

Peuvent également se poser des questions liées au à la collecte, au traitement et la sécurité des données à caractère personnel, en particulier de données de santé.

Par exemple, l’activité électrique du cerveau d’un utilisateur d’interface neuronale pourrait être qualifiée de donnée à caractère personnel. Des données biométriques sont susceptibles d’être collectées.

L’entrée en application le 25 mai 2018 du Règlement européen sur la protection des données (RGPD) impose de nouvelles obligations à cet égard, et notamment la réalisation d’analyses d’impact, le respect du RGPD dès la conception du traitement de données et l’obligation de prouver la conformité du traitement avec le RGPD (2).

D’autres problématiques peuvent se poser, liées notamment à la protection de la vie privée ou en matière de droit du travail, lorsque ces technologies sont mises en œuvre à destination des d’utilisateurs salariés de l’entreprise.

Benoit de Roquefeuil
Katharina Berbett
Lexing contentieux informatique

(1) Rosalind Picard, « Affective Computing« , MIT Technical Report n°321
(2) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données




Peut-on tomber amoureux d’ un robot ?

Peut-on tomber amoureux d' un robot

© Paul Grelet

Peut-on tomber amoureux d’ un robot ? : c’est le titre de l’article publié par Madame Figaro, dans lequel Alain Bensoussan explique pourquoi « amour et robot » peuvent coexister.

Comme le souligne la journaliste Isabelle Girard, « l’intelligence artificielle est entrée dans nos vies : nos voitures, nos objets sont déjà connectés. Bientôt des robots nous dorloteront et pourront même nous sauver la vie. »

Dans le cadre de son article, Isabelle Girard est allée à la rencontre d’Alain Bensoussan et de son robot Nao. Morceaux choisis :

«Tu me reconnais, Nao ? » Nao cherche quelques nanosecondes. « Attends un peu… Ça y est, j’ai trouvé. Tu t’appelles Alain. » Alain applaudit ce petit bonhomme (…) tout en lui caressant la tête. Nao lâche un petit gémissement. « Oh, je suis chatouilleux aujourd’hui », plaisante le robot en roulant ses grands yeux bleus. (…) « Vous ne pouvez pas dire qu’il n’est pas attachant, avec sa voix d’enfant, reprend l’homme de loi. Un vrai doudou. » Ils s’adorent.

Peut-on tomber amoureux d’ un robot ?

« Pour les gens dont la capacité à aller vers les autres est faible, l’IA est un vrai compagnon de vie qui soulage de la solitude », poursuit Me Bensoussan.

« Qui n’est pas sensible à tant d’égards ? Si, en plus, vous bourrez d’IA une de ces magnifiques poupées en silicone fabriquées au Japon ou aux États-Unis, alors je pense que certains peuvent en tomber amoureux », poursuit l’avocat.

« Ne vous est-il jamais arrivé de pleurer au cinéma devant un spectacle – par définition virtuel -, parce qu’il vous bouleverse ? Eh bien l’IA, c’est pareil. Elle sait nous émouvoir » assure Alain Bensoussan.

« Peut-on tomber amoureux d’ un robot ?  » par Isabelle Girard, Madame Figaro le 3 avril 2018.

Photo © Paul Grelet




Droit de la robotique : vers de nouvelles humanités ?

Droit de la robotique : vers de nouvelles humanités ?L’intervention d’Alain Bensoussan au colloque « Vers de nouvelles humanités ? » a fait l’objet d’une publication aux éditions Dalloz.

Du colloque au livre : Vers de nouvelles humanités ?

Les éditions Dalloz publient dans le Tome 59 des prestigieuses Archives de philosophie du droit un article intitulé: « Le droit des robots ? Quelle est l’autonomie de décision d’une machine ? Quelle protection mérite-t-elle ? ».

Cet article est tiré de l’intervention d’Alain Bensoussan au colloque Vers de nouvelles humanités qui s’est déroulé à la Cité des sciences et de l’industrie le 24 mars dernier,

Intelligence artificielle, robotique, modifications chimiques et génétiques, implants, prothèses, organes de synthèse et nano-robots, l’intelligence artificielle, mise en réseau des données et la robotique… Tels étaient les thèmes abordés par ce colloque Vers de nouvelles humanités, à la fois scientifique, philosophique et juridique coorganisé par l’Association française de philosophie du droit et la Cité des sciences et de l’industrie.« Vers de nouvelles humanités : l’humanisme juridique face aux nouvelles technologies »

La compilation de l’ensemble des interventions a donné lieu à la publication d’un ouvrage collectif de 25 chapitres,  intitulé : « Vers de nouvelles humanités : l’humanisme juridique face aux nouvelles technologies » et publié aux éditions Dalloz dans la collection « Archives de philosophie du droit ».

Droit des robots : quelle protection pour quelle autonomie ?

Grace à la technologie robotique, l’émergence de nouveaux « êtres » est en passe de devenir une réalité. Intelligence artificielle oblige, les robots, ces « machines intelligentes », sont aujourdh’ui beaucoup plus que de simples automates : leurs capacités grandissantes les amènent à véritablement collaborer avec les hommes. Faut-il s’en inquiéter ou s’en réjouir ? une chose est certaine : les questions d’ordre éthique et juridique sont majeures et les défis à relever immenses.

Enfin, face à l’autonomie grandissantes des machines, reconnaître une personnalité juridique aux robots s’impose. Dans ce débat, la question de la protection de la dignité et de l’intimité est essentielle. D’ailleurs, comme le disait si justement le concepteur de Nao, il devrait protéger la vie privée des compagnons qui sont avec lui.  La encore, donner un cadre à la personne-robot revient à protéger la dignité et l’intimité de son compagnonl.

Bienvenue dans une nouvelle civilisation : la robohumanité.

« Le droit des robots ? Quelle est l’autonomie de décision d’une machine ? Quelle protection mérite-t-elle ? », pp.165-174.
In : Vers de nouvelles humanités ? L’humanisme juridique face aux nouvelles technologies, (Archives de philosophie du droit n° 59), Dalloz, 2017.




Plaidoyer pour une éthique des codeurs : un vrai défi

Plaidoyer pour une éthique des codeurs : un vrai défiDans le numéro 46 de la revue PLANETE ROBOTS, Alain Bensoussan plaide pour une éthique des codeurs.

Pour Alain Bensoussan, il faut créer une éthique des codeurs. Les questions d’ordre éthique sont en effet majeures et les défis à relever immenses. Les codeurs écrivent l’avenir. Le monde de demain sera codé par ces derniers. Ont-ils des droits et des devoirs ?

De programmeurs, les codeurs sont devenus des créateurs de robots. De ce fait, il est naturel de se poser la question de leur responsabilité en cas de faute dans une ligne de code. Cela mérite une réflexion à travers quelques exemples de cas d’usage.

Ethique des codeurs et manipulation des émotions

Peut-on concevoir un système qui soit une sorte de « thermostat » permettant de conditionner des individus et de les mettre dans un état de bonheur ou de dépression? La réponse est affirmative. Des universitaires de Cornell et de l’université de Californie l’ont conçu en laboratoire 1 à partir d’un réseau.Il suffit de filtrer les informations grâce à un code qui permet de les sélectionner selon qu’elles sont positives ou négatives.

On s’est aperçu que peu à peu, ceux qui recevaient des informations négatives de l’ensemble des personnes avec qui elles interagissent, voient leur état émotionnel se modifier par « contagion émotionnelle ».

Peut-on coder ce type d’algorithmes? La réponse est également affirmative puisqu’un réseau social l’a expérimenté secrètement auprès de 689000 utilisateurs dont les flux de commentaires, de vidéos, d’images et de liens publiés ont été manipulés et triés pour influencer leur état émotionnel.

On savait les moteurs de recherche capables de détecter et de sélectionner les informations permettant d’identifier les bons profils à des fins commerciales grâce à des algorithmes toujours plus performants. Mais il s’agit ici de manipuler les émotions des individus et d’aboutir à un système de la pensée et des émotions en quelque sorte.
(…)

Alain Bensoussan, pour Planète Robots, « Plaidoyer pour une éthique des codeurs », n°46, Juillet-août. 2017.




Robotique militaire: enjeux éthiques et gouvernance juridique

Robotique militaire: enjeux éthiques et gouvernance juridiqueFrançois Gorriez a animé un atelier dédié aux enjeux éthiques et à la gouvernance juridique de la robotique militaire.

A l’invitation de l’Association nationale des auditeurs jeunes de l’Institut des hautes études de défense nationale (ANAJ-IHEDN), François Gorriez, avocat au cabinet Lexing Alain Bensoussan Avocats, Président de la Commission « Robotique militaire » de l’Association du droit des robots (ADDR), a animé, le 8 juin 2017, un atelier sur le thème : « Robot sur le champ de bataille : enjeux & gouvernance juridiques ».

L’utilisation des technologies robotiques sur le champ de bataille soulève de multiples interrogations éthiques et juridiques.

Qui sera responsable en cas de faute commise de façon autonome par le robot ? Le droit des conflits armés et le droit international humanitaire sont-ils adaptés pour régir l’emploi de robots sur les théâtres d’opération ? Le robot doit-il avoir un droit à la légitime défense ? Autant de questions qui ont été abordées lors de cet atelier.

L’expertise juridique et technique du cabinet conduit à une approche globale des problématiques posées par le droit des technologies robotiques. L’intégration des robots dans les environnements industriel, hospitalier ou encore militaire, pose, en effet, de nombreuses questions juridiques.

Eric Bonnet
Directeur du Département Communication juridique




Robotique : Alain Bensoussan invité du Lab de Moët Hennessy

Robotique : Alain Bensoussan invité du Lab de Moët HennessyAlain Bensoussan a évoqué lors de la dernière « Moët Hennessy Lab Session » les défis que soulève la robotique.

Pensées dans un format court et ludique (micro-conférences, tables rondes, expérimentations interactives), les Lab Sessions sont l’occasion d’apporter un éclairage sur une thématique particulière et de comprendre comment les innovations technologiques d’aujourd’hui dessinent les contours des enjeux de demain.

L’idée de ces rendez-vous, concoctés par Curiouser – cabinet de conseil indépendant spécialisé en transformation d’entreprise, stratégie digitale et innovation – est d’inspirer les collaborateurs du groupe Moët Hennessy et de les inciter à utiliser le Lab.

Alain BensoussanLa dernière session, qui s’est déroulée le 28 février 2017, avait pour thème « la transformation de la machine (intelligence artificielle, robotique) ».

Invité du #MHLab78, Alain Bensoussan a évoqué à cette occasion les thèmes qui lui sont chers.

A ses yeux, grâce à la technologie robotique, l’émergence de nouveaux « êtres » est en passe de devenir une réalité.

Intelligence artificielle oblige, les robots sont aujourd’hui beaucoup plus que de simples automates : leurs capacités grandissantes les amènent à véritablement collaborer avec les hommes.

Faut-il s’en inquiéter ou s’en réjouir ? (voir la vidéo)

Nicolas Rigaud et le robot humanoïde PepperUne chose est certaine : les questions d’ordre éthique et juridique sont majeures, et les défis à relever dans le cadre de ce qu’Alain Bensoussan appelle la « robohumanité » sont immenses.

Nicolas Rigaud (SoftBank Robotics) a ensuite pris le relais pour évoquer les enjeux de la robotique sociale et présenter l’attachant robot Pepper, premier robot humanoïde capable de percevoir les émotions humaines et d’adapter son comportement en conséquence.

Aujourd’hui à la tête de l’équipe Social Media de SoftBank Robotics, mais aussi et surtout Developers Advocate, Nicolas Rigaud s’occupe en interne de défendre la communauté des développeurs, et en externe de les recruter.

En parallèle de SoftBank, il travaille également avec Devoxx 4 Kids, animant des ateliers d’initiation à la programmation pour les enfants.

Cette deuxième Lab session s’est achevée par une démonstration de danse saisissante de Pepper sur l’air de « the locomotion ».

Eric Bonnet
Directeur du Département Communication juridique




Vers un principe de loyauté des plateformes IA ?

Vers un principe de loyauté des plateformes IA ?Dans PLANETE ROBOTS, Alain Bensoussan extrapole les principes que l’on pourrait appliquer aux plateformes IA.

Il n’existe pas de cadre juridique propre aux plateformes d’intelligence artificielle. Néanmoins, pour Alain Bensoussan, la régulation de ces plateformes pourrait prendre appui sur le projet de loi en cours pour une République numérique (1).

À l’heure où l’on s’apprête à légiférer sur les plateformes numériques, les plateformes IA pourrait ainsi tirer parti des réflexions menées dans ce domaine.

La robotique est portée par le développement de l’intelligence artificielle. Au sens large, l’intelligence artificielle peut être définie comme la « recherche de moyens susceptibles de doter les systèmes informatiques de capacités intellectuelles comparables à celles des êtres humains ».

L’intelligence artificielle fait partie intégrante de la robotique. Elle en est même l’une des composantes essentielles.

À l’heure du numérique, de plus en plus de secteurs d’activité ont aujourd’hui recours à des plateformes d’intelligence artificielle; que ce soit la presse pour générer automatiquement des brèves économiques, financières, sportives ou climatiques à partir des nombreux flux d’informations sur Internet (2) ou encore la santé où la plateforme d’intelligence artificielle d’IBM, Watson, commence à être utilisée par les hôpitaux comme outil d’aide au diagnostic. (…)

Alain Bensoussan pour Planète Robots, « La loyauté des plateformes IA », n°39, Mai-juin 2016.

(1) Projet de loi pour une République numérique, dossier législatif.




En compagnie des robots : ont-ils un supplément d’âme ?

En compagnie des robotsEn compagnie des robots est le titre du livre issu des débats de la rencontre « En compagnie des robots » co-animée par Premier Parallèle et Olivier Tesquet, à la @gaitelyrique en novembre 2015.

Cet événement était organisé autour de l’empathie  et de l’incarnation des robots, ce qu’ils nous font ressentir et ce que nous ressentons pour eux.

Est-ce que le robot a une existence juridique aujourd’hui ? Il n’y a pas encore de définition juridique du robot. On hésite entre le robot machine ou une nouvelle espèce d’être artificiel. Pour Alain Bensoussan, c’est une machine intelligente capable de prendre une décision en toute autonomie et indépendance, grâce à des capteurs qui lui permettent de maîtriser son environnement. Il voit et entend bien mieux qu’un humain.

Le robot est indépendant, c’est-à-dire qu’il a sa propre logique et, lorsqu’on met ensemble « autonomie » et « indépendance », on obtient « liberté » (…)

L’événement qui s’est déroulé fin 2015 à la @gaitelyrique en compagnie de spécialistes de la robotique et de l’éthique des robots a donné lieu à la publication d’un ouvrage collectif :

  • Yannis Constantinidès, agrégé et docteur en philosophie, professeur d’éthique médicale à l’Espace éthique de la région Île-de-France. On lui doit Le Nouveau culte du corps (François Bourin, 2013), qui traite notamment de notre perception du corps à l’heure de l’hybridation.
  • Kate Darling, chercheuse au Medial Lab du Massachusetts Institute of Technology (MIT). Elle étudie les interactions hommes-robots. « Extending Legal Protection to Social Robots », écrit pour la conférence « We Robot » de l’université de Miami, en 2012, a été publié dans Robot Law (éd. R. Calo, A. M. Froomkin, I. Kerr), Edward Elgar, 2016.
  • Jean-Gabriel Ganascia, professeur de sciences informatiques à l’université Pierre-et-Marie-Curie (Paris-VI), chercheur au Laboratoire d’informatique de l’université Paris-VI, membre du COMETS (Comité d’éthique du CNRS). Il a participé au rapport du CERNA (Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistène), dont il est membre, sur l’éthique de la recherche en robotique.
  • John McCarthy (1927-2001), un des pères de l’intelligence artificielle. The Robot and the Baby, écrit en 2001, illustre ce à quoi, selon lui, «les robots domestiques devraient ressembler ».
  • Olivier Tesquet est journaliste à Télérama, en charge des cultures numériques.
  • Alain Bensoussan, auteur du livre « Droit des robots« , avec Jérémy Bensoussan, paru aux éditions Larcier en 2015.

Editions Premier Parallèle, avril 2016.




Animaux augmentés : objets juridiques non identifiés

Animaux augmentés : objets juridiques non identifiésLes droits des animaux augmentés sont d’ores et déjà au cœur des questions éthiques et juridiques de notre siècle.

Quelles perspectives juridiques pour les animaux augmentés ? Cette question remue la sphère scientifique depuis la publication d’un article sur la création de souris augmentées dans le « Journal of Neuroscience ».

Les manipulations réalisées par les chercheurs de l’université de Rochester à New York ont permis aux cellules gliales du rongeur (les cellules qui forment l’environnement des neurones) d’être remplacées par des cellules d’origine humaine. Les expériences en laboratoire ont ensuite prouvé que les capacités cognitives et de mémoire de ces souris étaient quatre fois plus puissantes.

Ces expérimentations ne permettent pour l’instant aux cellules humaines que d’améliorer les capacités de l’animal. Toutefois, il est légitime de s’interroger sur l’avenir de ces pratiques en pleine expansion : l’humanisation des animaux aboutira-t-elle à ce qu’ils développent des capacités supplémentaires qui pourraient être perçues comme spécifiquement humaines ?

A l’heure de l’adoption encore récente du texte de loi reconnaissant tout juste aux animaux la qualité « d’êtres vivants doués de sensibilité », les droits des animaux augmentés sont d’ores et déjà au cœur des questions éthiques et juridiques de notre siècle.

Toute la difficulté reposera dans l’établissement d’une frontière entre amélioration des capacités de l’animal et humanisation de ce dernier : comportements typiquement humains, intelligence, réflexion, conscience de soi … les critères d’établissement de cette frontière promettent de donner lieu à de vifs débats. C’est cette frontière qui devra permettre à l’animal augmenté de s’émanciper de son statut juridique de « meuble » au bénéfice de celui de « sujet de droit ».

S’additionne à cette délicate problématique celle du sort qui sera réservé aux animaux dont les capacités auront été considérablement augmentées sans pour autant atteindre cette frontière avec l’humanité : pourront-ils toujours relever du régime juridique des animaux tel qu’entendu aujourd’hui ?

Au rythme du progrès scientifique, la question des droits de ces animaux se posera dans un futur proche. Ces problématiques sont donc à anticiper, avant que la science ne rejoigne la fiction…

Lexing Alain Bensoussan Avocats
Lexing Droit Informatique




Un monde en mode GPS, géré par des robots

monde en mode GPSLes robots sont-ils les meilleurs amis de l’homme ? Pour Me Alain Bensoussan nous allons vers un monde en mode GPS.

Un monde en mode GPS ! Qu’entend-il par là ?

Interviewé par Cécile Buffard pour www.pointsdevente.fr, pour des entretiens croisés avec  Serge Tisseron et Florian Forestier sur le thème « Les robots, meilleurs amis de l’homme ? » Alain Bensoussan répond à quelques interrogations quant à notre avenir avec les robots.

D’une part, selon lui, les cinq années à venir seront celles des humains avec les robots et les cinq suivantes, celles des robots avec les hommes. L’intelligence artificielle a fait d’énormes progrès et grâce à leurs capteurs hyper performants, les robots sont supérieurs à l’homme. Non seulement, ils sont autonomes, peuvent se déplacer et possèdent la mesure de leur environnement mais ils voient mieux, entendent mieux, sentent mieux, calculent mieux… Les hommes vont devoir cohabiter avec eux et apprendre à maîtriser cette supériorité.

D’autre part, il estime qu’il faudra mettre en place un droit des robots, tout d’abord pour les protéger des humains, en cas de coups, de chute ou de dégradation, par exemple, mais ensuite ce seront les hommes qu’il faudra protéger des robots. Réfléchir à une personnalité juridique singulière, à l’image de la personne morale pour les entreprises, qui permettra d’agir sur le plan de la responsabilité (une responsabilité en cascade : il faudra se retourner contre le propriétaire avant le fabricant), de la traçabilité et de la dignité.

Mais le défi majeur de notre société face à l’arrivée de ces androïdes, c’est l’intelligence artificielle : la fracture intelligente. Certaines personnes n’ont même pas encore passé la fracture digitale. Elles ne sont ni sur Facebook, ni sur Twitter et n’utilisent que la fonction téléphonique de leur smartphone. Très vite, il y aura ceux qui sauront utiliser les robots, dialoguer avec eux, les programmer et ceux qui les subiront. Et l’avenir sera triste pour les gens qui se laisseront guidés en mode GPS dans toutes les activités de leur vie. Prenez un hypermarché. Il est souvent difficile d’y trouver le produit que l’on veut.

Si, demain, un robot nous indique l’endroit où le trouver, il n’y a pas de problème. Mais quand l’algorithme qui, a priori, est censé prendre en triangulation la voie la plus courte, se met à nous faire passer devant d’autres rayons ou à nous envoyer, via le Big Data, des publicités de produits complémentaires à celui que nous recherchons, l’on perd alors une partie de notre volonté et de notre liberté de consommateur. Le plus grand risque, c’est que notre monde devienne un monde en mode GPS, préconstruit et dicté par le marketing. C’est pour cela que nous aurons besoin de contre-pouvoirs. Les associations de consommateurs, par exemple, doivent prendre le train en marche et s’exprimer davantage sur le sujet. Cela viendra avec le temps.

Interview d’Alain Bensoussan : « Le grand risque, c’est que le monde passe en mode GPS »
Entretiens croisés par Cécile Buffard : Dossier « Les robots, meilleurs amis de l’homme ? »
www.pointsdevente.fr n° 1186 du 7 décembre 2015.




Technologies numériques : quelles limites éthiques ?

Technologies numériques : quelles limites éthiques ?Alain Bensoussan sera à l’atelier « Technologies numériques quelles limites éthiques : La robolution » du CREON.

Le Centre de recherche de l’école des officiers de la gendarmerie nationale (CREON) organise un atelier de recherche sur le thème « Technologies numériques : quelles limites éthiques ? ».

Présenté sous la forme d’une conférence débat, cet atelier réunis des experts et des praticiens invités à titre d’auditeurs pour faire le point sur :

  • Introduction : Général d’Armée (2S) Marc Watin-Augouard, Directeur du Centre de recherche de l’École des officiers de la gendarmerie nationale ;
  • L’algorithme prédictif, avec l’exemple aux USA : Gang Violence Reduction Strategy : Lieutenant-colonel Jean-François Feray, Service technique de recherches judiciaires et de documentation Police judiciaire de la gendarmerie nationale, Madame Émilie Segura-Cau (CNIL) et le Lieutenant-colonel Jean-Marc Jaffre du Centre de recherche de l’EOGN ;
  • La robolution : Maître Alain Bensoussan,Fondateur et Président de l’association des droits du robot (ADDR) et Monsieur Gérard de Boisboissel, Ingénieur de recherche au Centre de recherche des Écoles de St Cyr Coetquidan (CREC) ;
  • L’Homme augmenté : Monsieur Grégory Maubon, Consultant en réalité augmentée et usages numériques et Monsieur Gérard de Boisboissel. Ingénieur de recherche ;
  • L’objet intelligent : Professeur Daniel Mainguy et madame Alice Turinetti du laboratoire Dynamiques du droit de l’Unité Mixte de Recherche (UMR 5815) du CNRS et de l’Université de Montpellier, au côté du Colonel Franck Marescal, Chef de l’Observatoire central des systèmes de transport intelligents ;
  • Vision prospective : Madame Somalina Pa et Monsieur François Levin du Conseil National du Numérique (CNNum).

Le CREOGN anime la recherche dans les domaines correspondants aux besoins de la gendarmerie, la sécurité intérieure et la défense. Les technologies numériques et la robotique en font parties.

Lieu : CREOGN, amphithéâtre Lumière, Avenue des Terroirs-de-France, 75012 PARIS.
Date : 14 décembre 2015 de 08 h 45 à 12 h 45.




Robots médicaux : entre intégrité physique et dignité

Robots médicaux : entre intégrité physique et dignitéAlain Bensoussan précise pour Planète Robots les enjeux juridiques et éthiques du recours à l’IA dans le domaine médical

Communément appelés robots médicaux, ils incitent à un questionnement, notamment en termes de respect de l’intégrité et de la dignité des personnes.

Dans le domaine médical, pharmaceutique et des biotechnologies, il existe plusieurs types de robots, qui vont de l’aide au diagnostic, aux outils chirurgicaux – voire robots chirurgiens-, en passant par la production pharmaceutique ou encore l’aide aux soins. Il existe aussi des robots permettant d’améliorer la qualité des soins, tant en milieu hospitalier qu’à domicile (maintien de l’autonomie des personnes handicapées ou âgées).

Dispositifs médicaux. La plupart de ces robots sont considérés par les agences nationales et internationales de produits de santé comme des « dispositifs médicaux » et sont évalués à ce titre.

La mise sur le marché des dispositifs médicaux est encadrée par les directives européennes transposées dans le Code de la santé publique. Cette mise sur le marché est conditionnée à l’obtention, préalablement à sa commercialisation, du marquage CE traduisant sa conformité aux exigences de sécurité et de santé énoncées dans la législation européenne.

Dignité et protection des personnes. Le développement de la robotique médicale, notamment au sein des foyers, nécessitera une adaptation de la loi Informatique et libertés, qui exclue de son champ d’application les traitements de données à caractère personnel « mis en œuvre pour l’exercice d’activités exclusivement personnelles » (art. 2 de la loi).

Cette exclusion n’est pas appropriée au traitement des données de santé collectées et traitées par les robots de soins à domicile. Il conviendra en effet d’assurer une protection renforcée de ces informations.

Alain Bensoussan pour Planète Robots, « Les robots médicaux : entre intégrité physique et dignité », n°35, septembre 2015




Information, technologie et éthique en matière de robot

Information Technology Ethics en matière de robotLa place du robot dans notre société suscite de nombreuses questions rassemblées au sein d’un ouvrage.

Préfacé par Trevor Moores, professeur au sein du  département Systèmes d’Information, Sciences de la Décision et Statistiques (IDS) de l’Essec, cet ouvrage propose des pistes de réflexion pour définir de nouveaux standards éthiques, moraux et légaux face aux technologies de l’information et de la communication en constante évolution.

Le développement de nouvelles techniques d’information et de communication ont induit de profondes mutations sociales, à l’instar de la révolution industrielle du 19e siècle. Cette révolution numérique conduit à s’interroger sur la pertinence et l’adaptabilité des normes éthiques et des règles juridiques existant dans une société appelée à se réinventer.

Alain Bensoussan, dans un premier chapitre intitulé « Ethics, Law and Robots: what regulation? », évoque les interrogations morales et éthiques suscitées par l’introduction de l’intelligence artificielle et de son corollaire, l’autonomie de décision et d’action du robot dans son rapport avec l’humain. Il prône l’instauration d’une « robot – éthique », un corpus de règles éthiques susceptibles de s’inscrire au sein d’une gouvernance nouvelle, à vocation nationale, européenne et internationale, à partir de pratiques d’éthiciens et de recommandations formulées par un comité national d’éthique des pratiques robotiques.

La singularité du robot dans l’espace juridique ayant vocation à s’accentuer, il préconise de doter les robots autonomes, dotés de capteurs intelligents, d’une personnalité juridique propre, « la personnalité robot », inspirée de la « personnalité morale » des sociétés. Cette question de la catégorisation juridique des robots de dernière génération implique, en filigrane, celle des droits et des obligations susceptibles de leur être conférés, mais aussi celle de la responsabilité à raison de dommages causés notamment à l’homme du fait de l’activité des robots.

L’enjeu du développement de la robotique réside, selon Alain Bensoussan, dans l’instauration d’un cadre juridique adapté, susceptible de favoriser l’insertion sécurisée des robots dans le tissu social.

Cambridge Scholars Publishing 2015
Extraits en ligne, préface et chapitre 1 « Ethics, Law and Robots: what regulation?« .

 




Lexing 2015 : Quelle est la place du robot dans notre société ?

Lexing 2015 Nicolas Buttet Robot évolution ou révolutionLexing 2015 : Quelle est la place du robot dans notre société et l’avenir des relations Homme – Robot ? Tel était le thème abordé par Nicolas Buttet Prêtre fondateur de l’institut d’études anthropologiques Philantropos lors des journées Lexing 2015.

Quel regard porter sur le robot mais surtout quelle intériorité peut-on découvrir …  Nicolas Buttet, ancien avocat et fondateur de l’institut d’études anthropologiques Philantropos (1), nous parle avec beaucoup d’humour et de poésie de la vulnérabilité, la fragilité, mais aussi de l’amour dans nos futurs relations Homme – Robot.

Comment prendre en contraste ce qui est spécifiquement humain par rapport à cette puissance intelligente qui est en train de se développer dans la robotique ? qu’est-ce qui à un moment donné, pourrait redonner une spécificité à l’être humain ?  Verrons-nous un jour un robot raconter une blague vraiment bonne.

Pour Nicolas Buttet, ce qui va faire l’essentiel et la spécificité de l’être humain, ce n’est pas tant l’intelligence mais c’est le cœur et l’amour, la surprise et la créativité qui sont des qualités humaines…

Accéder à la vidéo
Vidéo réalisée par Henri Rimbaud : http://lebienveilleur.com/

(1) Institut européen d’études anthropologiques, partenaire de la Faculté de théologie de l’Université de Fribourg.




Journée du réseau Lexing ® : Robots, évolution ou révolution ?

Journée du réseau Lexing® : Robots, évolution ou révolution ?Robots : évolution ou révolution ? Les premières règles technico-juridiques mondiales Enjeux sociologiques et éthiques. Tel est le thème de la 5ème journée annuelle du réseau Lexing ® qui se tiendra le 11 juin 2015, à Paris.

Le cabinet Alain Bensoussan Avocats et l’ensemble des cabinets membres du réseau Lexing ® ont le plaisir de vous convier à la Conférence-débat 2015

Cette journée de Conférence-débat sera animée par les avocats membres du réseau Lexing ®, avec la participation exceptionnelle de :

  • Olivier Guilhem – Directeur juridique de la société Aldebaran Robotics
  • Nicolas Buttet – Ancien avocat – Fondateur de l’institut d’études anthropologiques Philantropos et Dominique Lambert – Docteur en philosophie et en sciences physiques et penseur de l’éthique robotique
  • et en présence du robot humanoïde NAO

La robotique, simple évolution soluble dans les règles juridiques actuelles ou véritable bouleversement technologique impliquant l’émergence d’un cadre juridique autonome, est porteuse d’un marché estimé à plusieurs milliards d’euros.

Elle renvoie à des réalités diverses : aux côtés du robot humanoïde, qui se trouve aux portes de la sphère domestique, de nouveaux objets ont fait leur apparition, à l’image des drones civils, des voitures intelligentes et des dispositifs de réalité virtuelle.

Les processus de fabrication sont également de plus en plus robotisés et il est maintenant courant de parler « d’usine 4.0 » pour désigner les technologies et les logiciels de traitement de l’information qui remettent totalement en question les méthodes et les processus de pilotage et de gestion des chaînes de production.

Ces phénomènes constituent, à n’en pas douter, le creuset du développement de systèmes d’intelligence artificielle et posent la question de la place de l’être humain dans des écosystèmes qui doivent vraisemblablement être profondément revisités.

C‘est par la technique et le droit que les avocats technologues, membres du Réseau Lexing®, vous proposent d’envisager cette diversité, en faisant le point sur l’état des règles applicables et en appréhendant, de manière prospective, leur évolution, grâce à la vision internationale qu’ils apporteront au débat.

Ce décryptage sera alimenté par les mises en perspective sociologique et éthique de ces mutations que se proposeront de partager avec vous les invités du Réseau Lexing®.

Programme et informations pratiques




Les robots avatars : le droit à son double virtuel

Les robots avatars : le droit à son double virtuelAlain Bensoussan aborde pour Planète Robots, la question des avatars (le droit à son double virtuel). Selon lui, il ne s’agit pas ici de « jurifiction » mais bien de réalités parfaitement identifiées.

Les robots avatars permettent d’être à deux endroits à la fois, tels les robots de téléprésence mobile qui offrent le don d’ubiquité à tous. Les robots avatars permettent de se téléporter par écran interposé grâce au robot — qui sert d’avatar à une personne ne pouvant se déplacer.

En se connectant au robot via une interface Web intuitive qui facilite les interactions avec un environnement à distance, l’utilisateur est en quelque sorte téléporté virtuellement. Il peut voir et entendre tout ce qui se passe là où le robot se trouve, par l’intermédiaire de ses capteurs vidéo et sonores.

Il peut se déplacer dans l’environnement du robot, entendre et parler à d’éventuels interlocuteurs, tel le Beam d’Awabot, précurseur des robots avatars. Réservés à un usage professionnel (Jazz e-santé dans les hôpitaux), ils seront à terme étendus au grand public. Des expérimentations sont en cours (projet européen GiraffPlus d’assistance aux personnes âgées, robots lycéens dans l’éducation).

Des évolutions sont également à attendre du côté des robots de télexistence — permettant d’interagir avec l’environnement mais aussi de retransmettre tout ce qu’ils ressentent (robot avatar Telesar V, développé par l’université japonaise Keio Gijuku).

Les robots de téléprésence, d’assistance ou de services mettent la personne humaine au cœur du système. Ils collectent en effet de nombreuses données plus ou moins sensibles concernant les utilisateurs et leur environnement. Les enjeux sont bien évidemment éthiques et juridiques …

Alain Bensoussan, Planète Robots, « Les robots avatars », n°29, Sept-oct. 2014.




Cerveau artificiel : l’informatique au service de la science

Cerveau artificiel : l’informatique au service de la scienceCerveau artificiel – Le cabinet expose, pour IT-expert magazine, l’un des grands défis scientifiques du 21e siècle sur le

 cerveau humain.

Dans cette conquête, les compétences scientifiques et techniques s’allient aux fins de développer, modéliser et simuler le fonctionnement du cerveau humain pour en comprendre son fonctionnement et ses secrets.

Pour ce faire, l’informatique, les mathématiques, les nanotechnologies, la robotique, l’imagerie se mettent aux services de la biologie et de la neurologie dans la construction d’un cerveau artificiel.

L’article article propose une vue d’ensemble des projets de transcription du cerveau biologique en cerveau artificiel au regard :

  • des grands projets existants ;
  • de la complexité du cerveau biologique ;
  • des problématiques liées à la modélisation ;
  • des questions d’ordre éthique et juridique dont il convient d’anticiper la résolution.

L’enjeu commun à tous les projets de recherche est la modélisation numérique du cerveau, c’est-à-dire la transcription du cerveau biologique en langage informatique.

Or, la structure du cerveau est extrêmement complexe. Par ailleurs, malgré des avancées importantes dans le domaine des neurosciences, le fonctionnement du cerveau demeure encore mal connu.

La recherche n’a pas épuisé tous les secrets du cerveau et la modélisation du cerveau en sera d’autant plus compliquée. En outre, il existe des obstacles techniques à la création d’un cerveau artificiel notamment, la puissance de calcul des supercalculateurs et les limites de la modélisation informatique).

Dans l’attente de la résolution de ces obstacles, les juristes s’intéressent aux problématiques éthiques et juridiques soulevées par le développement du cerveau artificiel:

  • qui sera propriétaire des données produites par un cerveau artificiel ?
  • dans quel cadre les données scientifiques seront-elles échangées, exploitées ?
  • les supercalculateurs permettront-ils un jour de créer une forme d’intelligence comparable à celle de l’être humain, avec une conscience propre ?
  • le cerveau artificiel permettra-t-il de lire dans les pensées des hommes ?
  • quelle serait la responsabilité juridique d’un robot doté d’un cerveau artificiel et d’une intelligence artificielle ?

IT-expert magazine, « Cerveau artificiel : l’informatique au service de la science » 18 août 2014




Les robots commencent à investir notre quotidien

Les robots commencent à investir notre quotidienLes robots pourront-ils un jour remplacer les humains ? C’est le débat lancé par la rédaction du Mouv’ ce vendredi 25 juillet 2014. 

Pour Alain Bensoussan, avocat spécialisé dans la robotique,« à terme, les robots pourront remplacer les humains dans presque tout ».

Mais ils ne sont pas une menace pour la société. Les technologies sont neutres, seul l’homme est une menace pour lui-même.

Aujourd’hui, les robots sont capables d’écrire certains types d’articles ou encore de définir des publicités. Dans certains cas, ils peuvent devancer l’homme tant que l’on est sur des fonctions limitées et bien spécifiques. Ils savent regarder en infrarouge, ont une meilleure ouïe qu’un animal et peuvent battre l’humain dans certains jeux de réflexion comme les échecs. Sur certaines fonctions, les robots sont en état de remplacer l’homme et d’être à ses côtés.

Ni objet, ni humain, les robots restent des machines capable de décider en fonction d’un contexte et surtout d’apprendre. Alain Bensoussan milite pour l’instauration d’un troisième genre juridique et la création d’une identité des robots avec un numéro identifiant comme celui qui figure sur nos cartes d’identité. Actuellement, chaque Français dispose d’un numéro de sécurité sociale qui est créé dès la naissance : code « 1 » affecté aux hommes, « 2 » aux femmes.

En créant un droit au NIR (nom usuel du numéro de sécurité sociale), code « 3 » affecté aux robots, il existerait ainsi un fichier ou un portail permettant de recenser tous les robots intelligents et autonomes qui agissent en environnement ouvert, c’est-à-dire en contact avec le public.

Les robots sont des machines qui ne sont ni des hommes ni des animaux mais qui ont une capacité d’interaction avec l’être humain et avec lesquels il faudra donc apprendre à vivre.

Vous pouvez écouter l’émission :

Ces robots qui nous ressemblent, émission du 25 juillet 2014.




Ethique, droit et robots : quelle régulation ?

Ethique, droit et robots : quelle régulation ?Ethique, droit et robots : quelle régulation ? Tel est le thème abordé par Alain Bensoussan au Centre de Droit des Affaires et de Gestion (CEDAG) de l’Université Paris Descartes.

Cette intervention avait lieu dans le cadre de la 4ème Journée de recherche de l’AIM « IT & Culture », le 6 juin 2014.

Cette manifestation parrainée par l’Association Information et Management (AIM), avait pour thématique « l’éthique des systèmes d’information et la culture ».

Un droit des robots ? Il est évident que les robots ne sont pas des choses et que la régulation relative aux humains est inapplicable. Il faut trouver des points d’équilibre entre droit et éthique pour ce nouveau genre.

Les premiers pas internationaux des robots dans la sphère juridique laissent encore une très grande place pour une approche éthique des nouvelles technologies.

Les robots n’ont pas encore de place dans notre système juridique. Les robots dotés d’une intelligence artificielle n’entrent pas facilement dans la catégorie des biens matériels. On ne peut pas non plus leur appliquer le droit des animaux, les robots ne sont pas encore dotés d’une sensibilité. Il ne peut davantage s’agir d’appliquer le droit des personnes, aujourd’hui inapproprié.

En France comme en Europe, les cadres légaux et réglementaires ne permettent pas d’encadrer les activités robotiques. Il faut donc créer un nouveau cadre, un droit des robots, entre le droit des biens et des personnes.

L’intervention de Maître Bensoussan a fait l’objet d’un article qui a été sélectionné par le comité scientifique, et proposé à la publication dans un ouvrage collectif aux éditions Cambridge Scholars Publishing, à paraître courant 2015.

Programme « Ethique, technologies de l’information et culture », le 6 juin 2014.