Réponse aux opposants à la création d’une « personnalité électronique »

personnalité électronique« Cette lettre ouverte est une bonne chose », s’enthousiasme l’avocat Alain Bensoussan , favorable à la  « personnalité électronique » et l’un des instigateurs de la notion.  « Ça met du mouvement, de la contradiction, et quelque chose pourra émerger de la contradiction ».

La création d’une « personnalité électronique » fait débat

Pour lui, il faudrait dans un premier temps définir une certification du robot. Une fois la machine aux normes européennes, elle pourrait se voir attribuer une responsabilité sur le modèle de la « personnalité morale ». Et si l’algorithme n’est pas conforme, « il y aura toujours au moins deux personnes derrière : celle qui a codé et celle qui a décidé de mettre le robot en circulation ».

Alain Bensoussan souligne que des machines détectent aujourd’hui mieux certaines pathologies que des médecins. Il met aussi en avant la possibilité que la voiture autonome soit moins accidentogène que l’humain : « Je comprends la potentielle victime du robot, mais est-ce que ça veut dire quelque chose s’il y a condamnation pénale alors que je baisse au maximum le risque d’accident ? Dans le cas d’un accident avec une voiture autonome, je ne suis pas sûr que l’humain l’aurait vu venir ».

La  « personnalité électronique » vise, au contraire, à aligner cet acteur social en devenir sur ses capacités réelles

La création, à terme, d’une personnalité juridique spécifique aux robots divise les chercheurs et scientifiques, et certains pensent que ce serait une voie « inappropriée et dangereuse », évoquant le fait que la personnalité juridique d’un robot ne peut dériver du modèle conçu pour les personnes physiques, puisque le robot bénéficierait alors de droits humains, tels que le droit à la dignité, le droit à son intégrité, le droit à indemnisation ou encore le droit à la citoyenneté, en affrontement direct avec les droits de l’Homme.

En réalité, la personnalité robot – qui ne vise aucunement à faire de la machine intelligente l’égal de l’homme ni à le concurrencer sur le plan symbolique – peut servir à sortir par le haut d’une fausse alternative, à savoir celle de concevoir l’entité robotisée dotée d’autonomie soit comme une machine en mieux ou un être humain en moins bien ; la personnalité robot vise, au contraire, à aligner cet acteur social en devenir sur ses capacités réelles et son rôle social, sans dégradation ni fantasme.

Isabelle Pottier
Directrice Études et Publications

Alain Bensoussan interviewé par Rémy Demichelis, « Une lettre ouverte pour refuser la « responsabilité juridique » des robots », Les Echos.fr du 17 avril 2018.

 




Application de l’IA à la robotique : cadre juridique et éthique

Application de l’IA à la robotique : cadre juridique et éthiqueDidier Gazagne a écrit un article sur l’application de l’IA à la robotique pour la revue de la Gendarmerie nationale.

Le terme robot est utilisé abondamment mais il appréhende des réalités techniques multiples et complexes qui ont un impact direct sur les qualifications et les régimes juridiques.

Robot, machine, intelligence artificielle (IA) : de quoi parle-t-on ?

En effet, avec l’application de l’IA à la robotique, plus le robot aura accès à une intelligence artificielle forte et disposera d’autonomie décisionnelle et d’une capacité d’apprentissage machine (Machine learning) non supervisé par l’homme (c’est-à-dire lorsque les données des algorithmes d’apprentissage machine en entrée et en sortie ne sont pas nécessairement connues par l’humain dans la boucle), moins le robot pourra être considéré comme un simple objet de droit sous le contrôle ou la garde d’un ou de plusieurs acteurs (le concepteur, le fabricant, le codeur des briques logicielles ou hardware, le codeur des algorithmes, le propriétaire du robot, l’utilisateur ou encore l’intégrateur)…

Aux termes de cette analyse, il nous apparaît que le droit commun applicable en matière de responsabilité est mal adapté, et que les régimes spéciaux de responsabilité, notamment la responsabilité du fait des choses, bien que plus opportune, présentent également une inadaptation à l’intelligence artificielle appliquée à la robotique…

Une publication relative à l’analyse du droit positif et des régimes de responsabilité en vigueur à l’épreuve de l’intelligence artificielle appliquée à la robotique sera réalisée dans le cadre des prochains travaux de l’ADDR et publiée également sur le site web alain-bensoussan.com.

Application de l’IA à la robotique

Dans cette publication, rédigée spécifiquement pour l’Agora Droit des robots du FIC 2017, il est proposé de faire un point sur la manière dont l’intelligence artificielle appliquée à la robotique modifie les frontières entre technologie et droit ainsi que sur la manière dont les règles de la responsabilité sont impactées par les robots qualifiés d’intelligents.

Didier Gazagne, « Application de l’intelligence artificielle (IA) à la robotique : un cadre juridique et éthique est nécessaire« , Revue de la gendarmerie nationale n° 257 – Supplément thématique.




Vers un droit civil européen de l’ intelligence artificielle

intelligence artificielleSelon les députés européens, des règles de droit civil européen de l’intelligence artificielle et de la robotique sont nécessaires.

Définie comme la « capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, telles que le raisonnement et l’apprentissage » dans la norme ISO 2382-28 (1), l’intelligence artificielle ne bénéficie pas d’un régime juridique qui lui est propre. Dès lors, il convient de lui appliquer le régime de droit commun qui paraît inadéquat.

Qualifiée de prochaine révolution informatique, les formes d’intelligence artificielle sont de plus en plus performantes et suscitent de nombreuses interrogations sur le plan juridique.

Dans une résolution législative contenant des recommandations à la Commission sur les règles de droit civil sur la robotique et l’intelligence artificielle adoptée le 16 février 2017, les députés européens soutiennent qu’un projet législatif est urgent pour mettre en place des normes éthiques et clarifier, notamment, les règles de responsabilité.

Le droit civil européen de l’ intelligence artificielle et de la robotique : une initiative de la Commission des affaires juridiques

Ce rapport, qui fait suite au projet de rapport de la Commission JURI, publié le 31 mai 2016, contenant des recommandations au sujet de futures règles de droit civil sur la robotique et l’intelligence artificielle (2), propose une charte sur la robotique, qui permettra de poser les bases d’une conduite éthique et déontologique.

L’objectif de la résolution sur le droit civil européen de l’ intelligence artificielle et de la robotique

Les députés européens demandent donc à la Commission de présenter une proposition de directive sur les règles de droit civil sur la robotique en suivant les recommandations de l’annexe de la résolution, afin d’assurer un standard de sûreté et de sécurité.

L’objectif du législateur est d’examiner les conséquences et les effets juridiques de la robotique et de l’intelligence artificielle, sans pour autant ralentir l’innovation.

Les impacts des robots et de l’ intelligence artificielle

Dans son introduction, le Parlement européen rappelle les enjeux du développement de la robotique et de l’intelligence artificielle ou « machines intelligentes et autonomes, dotées de la capacité d’apprendre et de prendre des décisions de manière indépendante ».

La résolution rappelle que les ventes de robots ont augmenté en moyenne de 17% par an, et qu’elles ont connu, en 2017, leur plus forte augmentation annuelle, s’élevant à 29%.

Toutefois, les enjeux ne sont pas seulement économiques. La résolution insiste sur le fait que cela impacte la société dans son ensemble, et liste les impacts éthiques, sociaux, environnementaux et juridiques des robots dotés d’intelligence artificielle.

La résolution précise que « plusieurs pays, tels les Etats-Unis, le Japon, la Chine et la Corée du Sud, envisagent des mesures réglementaires dans le domaine de la robotique et de l’intelligence artificielle, et qu’ils ont même déjà pris certaines mesures en ce sens ».

La résolution soutient notamment qu’il est nécessaire de créer une définition acceptée par tous des notions de robot et d’intelligence artificielle et que ces innovations devraient, dès l’étape de la conception, préserver la dignité et l’autodétermination de la personne humaine.

Les recommandations pour un droit civil européen de l’ intelligence artificielle et de la robotique

Le Parlement européen recommande dès lors à la Commission d’établir :

  • une définition européenne commune des catégories de robots autonomes et intelligents ;
  • un système d’immatriculation des robots avancés :
  • un instrument en matière de responsabilité des robots et de l’intelligence artificielle dans les cas autres que les dommages matériels ;
  • une assurance robotique ;
  • un fond de garantie ;
  • l’interopérabilité des robots autonomes ;
  • l’accès au code source, données d’entrées et aux détails de construction, notamment pour les enquêtes de responsabilité ;
  • une charte sur la robotique.

Cette charte robotique pourrait établir les principes éthiques fondamentaux devant être respectés dès la phase de conception et de développement, dans le domaine de la robotique et l’intelligence artificielle.

La charte est composée des éléments suivants :

  • le code de conduite éthique pour les ingénieurs en robotique ;
  • le code de déontologie pour les comités d’éthique de la recherche ;
  • la licence pour les concepteurs ;
  • la licence pour les utilisateurs.

Le Parlement européen formule également une demande à la Commission relative à la possibilité, à long terme, de créer un statut juridique spécial pour les robots, afin de clarifier la responsabilité en cas de dommages. La responsabilité est, en effet, l’objet principal des recommandations. La résolution fait, notamment, un point sur les véhicules autonomes.

Le Parlement propose à la Commission de créer une agence européenne chargée de la robotique et de l’intelligence artificielle pour fournir l’expertise technique, éthique et réglementaire nécessaire pour soutenir les acteurs publics.

Pour conclure, il convient de relever que la Commission n’a aucune obligation de suivre les recommandations du Parlement européen. En cas de refus, la Commission devra toutefois exposer les motifs.

Marie Soulez
Julie Langlois
Lexing Propriété intellectuelle Contentieux

(1) Norme ISO/IEC 2382-28:1995, Technologies de l’information — Vocabulaire — Partie 28 : Intelligence artificielle — Notions fondamentales et systèmes experts, révisée par ISO/IEC 2382 :2015.
(2) Règles de droit civil sur la robotique : Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL) – P8_TA-PROV(2017)0051)




Des robots intelligents au cœur des banques et assurances

Des robots intelligents au cœur des banques et assurancesLe recours aux robots intelligents s’intensifie au sein des banques suscitant de nouvelles problématiques juridiques.

Depuis l’apparition de Watson chez IBM, les robots se perfectionnent progressivement puisque, désormais, certains des robots parviennent à :

  • analyser les méls que les clients envoient aux conseillers bancaires, en établissant des degrés de priorité et en préparant une réponse au client que le conseiller n’aura qu’à compléter ;
  • suivre l’évolution réglementaire des normes et les intégrer aux mécanismes en place afin de garantir la conformité ;
  • résilier à grande échelle des contrats d’assurance auto et habitation.

La survenance d’une faille dans l’exécution d’une tâche ou d’une mission exécutée par un robot soulève, en conséquence, diverses questions sur le statut juridique du robot mais également sur sa responsabilité. En effet, quelle est la place du robot au sein de notre système juridique ? Quelle est la responsabilité du robot ?

Absence de cadre légal

Malgré la place croissante que les robots occupent dans l’ensemble des secteurs de l’économie, y compris désormais la banque et l’assurance, il n’existe pas, à l’heure actuelle, de définition légale du robot, que cela soit en droit français ou au niveau international. En effet, Il n’existe pas de texte de loi prenant en compte le robot comme objet de droit. En revanche, en tant qu’objet technique il existe plusieurs définitions de nature normative.

La norme ISO 8373 : 2012 (1) pose plusieurs définitions du robot, et semble être la source donnant le plus de définitions précises incluant le terme robot, comme, par exemple :

  • « robot : mécanisme programmable actionné sur au moins deux axes avec un degré d’autonomie, se déplaçant dans son environnement, pour exécuter des tâches prévues » ;
  • « robot de service professionnel : robot de service pour utilisation professionnelle, utilisé pour une tâche commerciale, habituellement par un opérateur qualifié ».

Dès lors, il apparaît que les robots utilisés dans le secteur de la banque et de l’assurance, seraient des robots de service professionnel, puisqu’ils agissent en lieu et place des êtres humains et souvent de collaborateurs qualifiés pour conseiller la clientèle des banques et des compagnies d’assurance.

Pour y parvenir, le principal mécanisme de ces robots repose sur l’utilisation de l’intelligence artificielle.

L’intelligence artificielle se définit comme :

« La discipline relative au traitement par l’informatique des connaissances et du raisonnement » (2).

Ce type de robot effectue une véritable analyse de la situation. Dès lors, il existe une différence entre un robot qui exécute sans analyser des tâches qui se répètent et un robot utilisé pour analyser des méls de clients, qui intègre et analyse les demandes, qui repose sur une solution utilisant l’intelligence artificielle. Dès lors, se pose la question de la responsabilité des robots en milieu bancaire ?

Quelle responsabilité pour les robots ?

La réglementation sectorielle bancaire ne régule pas le statut des robots en milieu bancaire. Il faut donc s’en remettre au droit commun général.

La notion de responsabilité, telle qu’issue du Code civil, est notamment liée à la faute humaine. La jurisprudence s’est toujours refusée à imputer un fait dommageable à des machines car la notion de responsabilité est liée à la question de l’autonomie décisionnelle, c’est-à-dire à la capacité de discernement. Cependant, lorsqu’un robot possède une source d’intelligence artificielle, la question de l’absence de discernement et de personnalité se pose. En effet, l’intelligence artificielle le dote d’une certaine forme d’autonomie qui peut le conduire, dans certains cas, à agir de manière imprévisible.

Dans le cadre de la responsabilité civile délictuelle, deux situations peuvent être envisagées :

  • le dommage résulte d’un défaut de fabrication, et dans ce cas, l’application du régime de la responsabilité du fait des produits défectueux (régime de responsabilité objective) semble applicable au cas des robots ;
  • le dommage résulte d’une interaction du robot avec les êtres humains.

S’agissant de la responsabilité civile délictuelle, les auteurs du livre vert distinguent deux situations :

Dans le premier cas, un robot cause un dommage du fait d’un défaut de fabrication : la directive n° 85/374 sur la responsabilité du fait des produits défectueux (3) établit le principe de la responsabilité objective (responsabilité sans faute) du fabriquant en cas de dommages provoqués par un produit défectueux.

Dans le second cas, un robot cause un dommage dans le cadre de ses interactions avec des êtres humains dans un environnement ouvert : les robots de nouvelle génération sont dotés de capacité d’adaptation et d’apprentissage et en conséquence, leur comportement présente un certain degré d’imprévisibilité. Le régime de la responsabilité du fait des produits défectueux ne semble plus approprié.

C’est pourquoi, il est soutenu que les robots devraient se voir reconnaître la personnalité juridique (4) et qu’un régime de responsabilité en cascade devrait être mis en place, considérant en tout premier lieu comme responsable le concepteur de la solution utilisant l’intelligence artificielle. Dès lors, dans ce schéma, ce n’est pas la banque qui serait responsable, si la plateforme d’intelligence artificielle présentait un dysfonctionnement, mais le concepteur de la solution utilisant l’intelligence artificielle, sauf si la banque est elle-même la conceptrice de la plateforme d’intelligence artificielle.

Ensuite seulement serait engagée, dans l’ordre, la responsabilité à titre subsidiaire du fabricant du robot ou celle de son propriétaire ou de l’utilisateur.

Il s’avère que la proposition pour un Livre vert (5) sur des aspects juridiques de la robotique, soutenue par la Commission européenne sur les questions juridiques en matière de robotique, penche plutôt pour une reconnaissance de la responsabilité du propriétaire du robot.

La robotisation croissante de la banque et de l’assurance répond certes à l’afflux des demandes électroniques des clients et « à leur besoin d’une plus grande personnalisation », malgré tout l’être humain demeure le rouage indispensable dans la relation clients, facteur clé de leur fidélisation.

Frédéric Forster
Charlotte Le Fiblec
Lexing Droit Télécoms

(1) Norme ISO 8373 :2012 – robots et composants robotiques.
(2) Arrêté du 27-6-1989 relatif à l’enrichissement du vocabulaire de l’informatique, Annexe II.
(3) Directive 85/374/CEE du 25-7-1985 sur la responsabilité du fait des produits défectueux.
(4) « Le droit des robots », Alain Bensoussan – Jérémy Bensoussan (Collection Minilex, Larcier, 2015 ; voir la vidéo de présentation).
(5) Suggestion for a greep paper on legal issues in robotics, 31-12-2012.




Les robo-advisors où la gestion de portefeuilles à l’ère digitale

Les robo-advisors où la gestion de portefeuilles à l’ère digitaleDans PLANETE ROBOTSAlain Bensoussan explique ce que sont les robo-advisors, ces conseillers financiers automatisés.

Il s’agit de plateformes spécialisées dans la gestion de portefeuilles en ligne avec un minimum d’intervention humaine, qui offre des conseils financiers automatisés (assurance-vie, PEA, placements boursiers, etc.).

Les premières plateformes de gestion d’épargne automatisée sont apparues en France il y a peu de temps et ont pour partenaires des compagnies d’assurance, des mutuelles, des institutions de prévoyance, ou encore des banques privées et publiques.

Les robo-advisors sont surtout des algorithmes qui, à partir des données de profil saisies par le client (épargnant ou investisseur), vont générer une forme de proposition adaptée mais néanmoins standardisée par rapport aux critères indiqués. Il va de soi que plus le profil du client est simple, plus l’algorithme est efficace.

S’agissant d’entreprises totalement virtuelles par opposition aux établissements financiers traditionnels (brick and mortar), les frais de gestion sont généralement faibles ce qui permet de s’adresser à tout type d’épargnants ou d’investisseurs, du plus modeste au plus aisé. Ces prestataires électroniques n’en sont pas moins des entreprises agissant dans un marché des plus réglementés.

(…) Certains robo-advisors se comportent même comme leurs homologues humains (courtiers d’assurances et conseillers financiers) et font signer à leurs clients des mandats de gestion qui leur donne certains pouvoirs notamment celui de gérer l’épargne à leur guise. Tous les documents contractuels sont signés électroniquement s’agissant d’un mandataire virtuel.

(…) On est loin d’un vide juridique en ce qui concerne les robo-advisors. Ces plateformes sont en effet régies par le Code des assurances (pour les sociétés d’assurance et de réassurance), le Code de la mutualité (pour les mutuelles et unions de mutuelles), le Code de la sécurité sociale (pour les institutions de prévoyance) et le Code monétaire et financier, s’agissant avant tout de sociétés d’investissement et de financement.

Isabelle Pottier
Directrice Études et Publications

Alain Bensoussan, pour Planète Robots, « La gestion de portefeuilles à l’ère digitale », n°43, Janv.-févr. 2017.




Robots avenir de l’humanité – Le Monde Festival

Robots avenir - Alain BensoussanLe Monde Festival a invité Alain Bensoussan sur « La question à se poser à propos des robots : la responsabilité ».

Dans le cadre de la deuxième édition du Monde Festival, « Le Monde » a organisé une table ronde sur la robotisation de la société : « Robots avenir de l’humanité » à l’Opéra Bastille, le samedi 26 septembre 2015.

Robots avenir - Festival Le Monde

Une rencontre animée par Annie Kahn avec, aux cotés de Maître Alain Bensoussan, avocat, président de l’Association du Droit des robots et auteur de l’ouvrage « Le droit des robots » : Raja Chatila, Roboticien, directeur de recherche au CNRS, Hakim El Karoui, Normalien et associé du cabinet de conseil Roland Berger, Rodolphe Gelin, Responsable de la recherche chez Aldebaran Robotics et Dominique Meda, Professeure de sociologie à l’université Paris-Dauphine et spécialiste de la sociologie du travail.

Les robots, avenir de l’humanité, ne sont pas de simples « grille pain », mais des machines dotées d’une intelligence artificielle, capables d’interagir avec leur environnement et de travailler en coopération avec l’homme. Du robot autonome au robot indépendant, la responsabilité n’est pas la même. Le robot autonome lui a seulement été préprogrammé. Le robot peut faire des erreurs de perception et une erreur n’est pas un dysfonctionnement. Si des règles éthiques peuvent et doivent être implantées dans les robots, cela reste insuffisant, il faut définir des engagements. A partir de quand, le robot a-t-il suffisamment d’indépendance pour nécessiter un statut et une responsabilité propres, une capacité de discernement, de jugement ?

Par exemple, les robots de compagnie deviennent des confidents. Ils enregistrent à la fois les caractéristiques personnelles (physiques ou psychologiques) et familiales de leur utilisateur mais aussi ses « petits secrets » (comme ceux qu’un enfant ou personne âgée pourraient lui confier). Ceci pose un vrai problème de confidentialité, surtout lorsque ces enregistrements de données à caractère personnel sont stockés dans le Cloud, hébergé dans on ne sais quel pays.

Robots avenir - Table ronde« Droit des robots : la question à se poser, c’est celle de la responsabilité », Le Monde.fr, le 6 octobre 2015 à 14h55.

Table ronde sur les enjeux de la généralisation des robots (présentation)

L’ADDR, association du droit des robots, appelle à la création d’un cadre juridique propre à la robotique, thèse développée dans l’ouvrage « Le droit des robots », paru aux éditions Larcier, en juin 2015.




TEDx Paris 2015, voyage dans le monde des robots

TEDx Paris 2015, voyage dans le monde des robotsTEDx Paris 2015 – Alain Bensoussan nous fait voyager dans le monde 4.0 des robots en milieu humain.

Il s’agit du premier procès d’un robot « tueur » devant une cour d’assise et un jury tétanisé par les enjeux.

Les robots sortent des laboratoires et envahissent les usines, les hôpitaux, les entreprises, les domiciles et, dans le monde 4.0, passent même la barre des prétoires.

Alain Bensoussan imagine un robot-conducteur à l’origine d’un accident mortel, sur le banc des accusés d’une cour d’assise. Qui est coupable :

  • Celui qui a porté le clic mortel ?
  • Le concepteur de l’algorithme ?
  • Le vendeur de la voiture intelligente ?

Le public du théâtre du Châtelet se transforme en Cour d’assises avec la mise en accusation du robot présumé tueur.

L’ordinateur de bord d’un clic de roue a-t-il prémédité la rencontre mortelle ? Le robot a-t-il commis une erreur ? Peut-il s’agir d’un accident ? Quelle peine peut-on prononcer ? …

Au cours de cette narration, Alain Bensoussan parcoure les singularités de cette personnalité juridique d’un nouveau genre qu’il a inventé et qui pourrait être attribuée aux êtres artificiels que sont les robots.

Aux termes de ce one man show, on acquière la conviction que défendre un droit des robots revient à protéger les droits de l’homme numérique.

Qui n’a pas entendu parler des conférences TEDx (pour Technology, Entertainment and Design) ? Ce sont des talks organisés dans le monde entier depuis de nombreuses années, sur les sujets les plus novateurs et dans de très nombreux domaines aussi variés que les sciences, le droit, la nature, l’espace, les nouvelles technologies, etc.

Cette année le TEDx Paris avait pour thème « les[R]évolutions françaises: qu’est-ce que la France peut encore offrir au monde ? » et les 19 intervenants ont déchiré un bout du voile sur notre avenir.

L’événement avait lieu au théâtre du Chatelet à Paris, le dimanche 1er novembre 2015.

Revivez cet événement : Voir la vidéo

Diaporama effectué sous Creative Commons, licence TedX

[slideshow_deploy id=’93490′]




Les robots pourraient-ils porter atteinte à la vie humaine ?

Les robots pourraient-ils porter atteinte à la vie humaine ?Alain Bensoussan évoque l’hypothèse d’une atteinte portée volontairement à la vie humaine par les robots.

Scénario d’un film de science-fiction ou anticipation de la réalité, il est permis de s’interroger sur les limites posées à l’autonomie décisionnelle des robots de dernière génération. Pourraient-il, notamment, commettre intentionnellement un homicide volontaire, sachant qu’ils contreviennent aux dispositions de la loi ?

L’incrimination d’homicide volontaire nécessite la présence d’un élément matériel (acte violent) et d’un élément moral (intention de commettre un crime). L’intention de tuer, qui doit être démontrée, ne peut reposer que sur la conscience de l’auteur. Cela reviendrait tout simplement à considérer que le robot a une conscience et qu’il est doté d’intentions dont il serait responsable.

On ouvre là, un débat sur l’intelligence artificielle qui pourrait faire naître chez le robot une forme de conscience jusque-là réservée aux êtres humains. Ce débat sur la prise en compte du concept d’intelligence artificielle et son corrolaire, l’autonomie de décision et d’action du robot par rapport aux êtres humains, plaide en faveur d’une personnalité juridique qui lui serait particulière, la « personnalité robot ».

S’agissant de dispositifs robotiques articulés utilisés sur des chaînes de production industrielle, ce débat n’a pas lieu d’être. Les accidents impliquant des robots industriels ont déjà fait l’objet d’une jurisprudence qui retient généralement la responsabilité de l’employeur en cas d’infraction à la législation relative à la sécurité des salariés.

À terme, la vocation des robots étant de fonctionner de manière autonome dans un environnement fermé ou ouvert, en coopération avec l’homme, l’importance de leurs actions et réactions va nécessiter une adaptation du droit à travers la reconnaissance de la « personnalité robot ».

Alain Bensoussan pour Planète Robots, « Les robots peuvent-ils commettre des meurtres ? », novembre-décembre 2015, n°36




Random Dark Shopper, responsabilité pénale et robot

Random Dark Shopper, responsabilité pénale et robotLe débat sur la responsabilité pénale des robots a été récemment relancé par les achats d’un robot sur le darknet.

Le robot « Random Dark Shopper » a été créé par le groupe MedienGruppe Bitnik dans l’optique d’effectuer de manière autonome et aléatoire des achats sur le darknet. Un darknet est un réseau privé virtuel dont les utilisateurs sont considérés comme des personnes de confiance. Un budget de 100 dollars en bitcoins par semaine lui a été alloué et le robot fait livrer l’ensemble de ses achats au musée Kunst à St Gallen en Suisse, afin qu’ils soient exposés.

Si parmi les achats de Random Dark Shopper figuraient des objets non sujets à controverse (l’intégrale du Seigneur des anneaux, des chaussures de sport de collection…), d’autres achats étaient plus problématiques puisqu’ont notamment été livrés au musée des cachets d’ecstasy et un faux passeport.

Le projet artistique a été saisi par la police suisse, mettant fin à l’exposition un jour avant la date de fin prévue. Il semble aujourd’hui que ni les artistes ni le robot ne seront poursuivis pour ces faits en Suisse.

L’expérience remet en avant la question de la responsabilité, en l’occurrence pénale, des robots.

Les lois d’Isaac Asimov, édictées en 1942, anticipaient déjà la question de l’autonomisation des robots doués d’intelligence artificielle. Les trois lois de la robotique sont les suivantes :

1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Le robot semble ici violer au moins la première de ces lois.

En droit pénal français, la commission d’une infraction pénale suppose la réunion de trois éléments : un élément matériel, un élément légal et un élément moral.

L’élément qui pose le plus de difficulté dans le cas présent, est la caractérisation de l’élément moral. Il n’y a pas en principe de délit sans intention de le commettre. Si par exception, la loi peut prévoir la commission d’un délit en cas de faute d’imprudence, de négligence ou de manquement à une obligation de prudence ou de sécurité prévue par la loi ou le règlement, c’est uniquement, en application de l’article 121-3 alinéa 3 du Code pénal (1), s’il est établi que l’auteur des faits n’a pas accompli les diligences normales compte tenu, le cas échéant, de la nature de ses missions ou de ses fonctions, de ses compétences, ainsi que du pouvoir et des moyens dont il disposait.

Dans cette hypothèse, les personnes physiques qui n’ont pas causé directement le dommage, mais qui ont créé ou contribué à créer la situation qui a permis la réalisation du dommage ou qui n’ont pas pris les mesures pour l’éviter, sont responsables pénalement, s’il est établi qu’elles ont, soit violé de façon manifestement délibérée une obligation particulière de prudence ou de sécurité prévue par la loi ou le règlement, soit commis une faute caractérisée et qui exposait autrui à un risque d’une particulière gravité qu’elles ne pouvaient ignorer.

Cette dernière hypothèse permettrait de faire porter la responsabilité pénale pour les faits commis par le robot, doté d’intelligence artificielle, sur l’auteur de l’algorithme d’intelligence artificielle sur lequel il s’appuie.

Dans le cas de Random Dark Shopper, les deux artistes ont déclaré assumer pleinement les actes du robot et la responsabilité pénale qui en découlait.

Mais la question mérite réflexion. A partir du moment où le créateur du robot a pris toutes les précautions nécessaires lors de la conception de celui-ci, pour notamment paramétrer tous les lois et règlements applicables, que faire si le robot décide de lui-même de commettre une infraction, en toute connaissance de cause ? En d’autres termes, comment appréhender la responsabilité pénale d’un agent intelligent doté d’une intelligence artificielle si développée qu’elle lui confère une autonomie de pensée qui confine à un état de « conscience » ?

La capacité du droit positif à gérer les nouvelles formes d’activité délictueuse, dont le Random Dark Shopper est une illustration, est mise en question, et ce avec d’autant plus d’acuité que l’intelligence des robots va croître.

Virginie Bensoussan-Brulé
Chloé Legris
Lexing Droit pénal numérique

(1) C. pén. art. 121-3, al. 3.




Le droit des humains doit être appliqué au droit des robots

Le droit des humains doit être appliqué au droit des robotsAlain Bensoussan revient sur l’accident qui a entraîné en juin dernier, la mort d’un employé causée par un robot.

Un droit des robots s’impose, cet accident en est l’illustration…

Peut-il s’agir d’un accident industriel comme les autres ? Un robot peut-il vraiment être considéré comme un meurtrier ? Y a-t-il un vide juridique ? Telles sont les questions posées par Guillaume Galpin pour Archimag (1).

Selon le constructeur automobile, le robot était un ancien modèle isolé dans une cage de sécurité pour éviter ce genre de drame. L’enquête en cours devra déterminer les causes exactes de l’accident et notamment rechercher les raisons qui peuvent expliquer qu’un ouvrier soit intervenu dans la cage d’un robot industriel.

Il ne s’agit pas du premier meurtre par un robot pour la simple raison qu’un robot ne peut être considéré comme un meurtrier dans l’actuel Etat de droit. Mais demain, la réponse sera peut-être oui, si l’on applique le droit des humains aux droits des robots.

Grâce au développement de l’intelligence artificielle, les robots sont désormais à même de prendre des décisions de manière autonome et d’apprendre par eux-mêmes (machine learning). « Le robot interprète l’environnement grâce à ses capteurs et prend des décisions grâce à sa plateforme d’IA », précise Alain Bensoussan.

Pour combler ce vide juridique, Maître Bensoussan milite pour la création d’un droit des robots et particulièrement la mise en place d’une « personnalité robot » et d’un régime juridique associé qui rendrait responsable pénalement et civilement les actes commis par les robots (2).

(1) Lire la totalité de l’interview sur Archimag du 6 juillet 2015, « Il faut appliquer le droit des humains au droit des robots« .
(2) Lire également, « Le droit des robots« , ouvrage co-écrit par Alain et son fils, Jérémy Bensoussan (collection Minilex, Larcier, 2015).




Assurance robot : les assureurs ont des solutions

Assurance robot : les assureurs ont des solutionsLa réflexion sur la protection juridique des robots est indissociable  de celle qui doit être menée sur l’assurance.

Si la réflexion conduit d’abord à la détermination d’un régime de responsabilité juridiquement adapté (1), elle peut aussi porter sur la nécessité d’accompagner le déploiement des robots d’une assurance appropriée.

Voici quelques pistes, sachant que certains opérateurs du marché de l’assurance sont déjà passés à l’action (2).

Il est coutume de distinguer l’assurance :

  • relative aux biens, définie par l’article L 121-1 du code des assurances, qui s’inscrit dans une logique d’indemnisation des dommages subis par la « chose assurée »;
  • de celle qui concerne la responsabilité, et qui couvre les dommages causés aux tiers par l’assuré, les personnes dont il répond, ou les « choses » qu’il à sous garde au sens de l’article 1384 du Code civil.

Les robots peuvent certes être placés sans difficulté, de prime abord, au rang des « choses ». Mais il serait forcément réducteur de les y maintenir sans discussion, dès lors que l’intelligence artificielle dont est dotée certains d’entre eux les rend apte à une certaine autonomie de fonctionnement, voire de prise de décision. C’est tout l’intérêt, et la pertinence, du débat sur la personnalitè-robot (3).

La question assurantielle peut donc tourner tout à la fois autour de la couverture des dommages aux biens, que de celle de ceux causés par les robots.

Si l’on s’en tient tout d’abord aux dommages qu’ils sont susceptibles de subir (par exemple par « Incendie, Accident, Risques Divers » et catastrophes naturelles), ce sont l’ensemble des composants techniques du robot qui doivent être couverts, matériels comme immatériels. Ainsi, au titre notamment des frais de réparation, la reconfiguration, la paramétrage ou encore la reconstitution des données devront être pris en charge par l’assureur, sans que n’y soient appliqués un quelconque coefficient de vétusté propre à l’aspect « machine ».

Au plan des exclusions, qui doivent nécessairement être, selon une jurisprudence constante, formelles et limitées il est conseillé de les examiner avec soin, notamment lorsqu’elle portent sur l’activité du robot : que dire par exemple d’une exclusion tenant à la vitesse de déplacement d’un robot mobile, largement inférieure à celle du fonctionnement pour lequel il a été conçu, si ce n’est qu’elle prive la garantie de tout intérêt ?

Pour l’assurance des dommages causés, la problématique peut sembler plus complexe, tant elle est liée au régime de responsabilité dont relèvent les robots. Même étendu à la responsabilité du fait des produits défectueux issue des articles 1386-1 et suivants du Code civil, le régime de droit commun devrait être adapté, et tenir compte du rôle causal particulier non seulement du souscripteur et des bénéficiaires de la police (concepteurs, fabricants, cogniticiens et autres métiers de l’intelligence artificielle, formateur, gardien ou pilote…) mais aussi des divers intervenants (le robot lui-même ?) dans le dommage causé au tiers.

Il faut donc s’attendre, pour les robots, à des contrats d’assurances plus riches, en termes d’activités garanties, de risques couverts et d’exclusions associées, richesse due notamment à une appréhension, spécifique à l’assurance de responsabilité, du défaut potentiel de maîtrise du comportement du robot par l’assuré.

Jean-François Forgeron
Lexing Droit informatique

(1) Alain Bensoussan, « Les robots devraient-ils bénéficier d’une protection juridique ?« , post du 15-4-2015.
(2) Neotech Assurances (groupe LSN).
(3) Alain Bensoussan, « La personnalité-robot : un nouveau droit« , post du 19-2-2015.




Clusis 2015 : Robotique et cybersécurité

Robotique et cybersécuritéAlain Bensoussan animait à Lausanne une conférence du Clusif sur le thème « Robotique et cybersécurité ».

A l’occasion de son Assemblée générale qui s’est tenue le 14 avril 2015, à Lausanne, le  Clusif a organisé une conférence intitulée « Du droit des robots à la cybersécurité des systèmes de contrôle ».

Le Clusis est une association suisse dédiée à la sécurité des systèmes d’information fondée en 1989 et qui compte aujourd’hui plus de 300 membres (experts, professeurs, responsables qualifiés de la sécurité, des PME ou organisations impliquées dans ces problématiques).

Cette année, les membres du Clusis ont eut le plaisir de convier leurs adhérents à une conférence sur le thème « Robotique et cybersécurité ».

La robotique figure au nombre des technologies clés à l’horizon 2020 et l’essor des projets techniques rend incontournable la problématique du cadre juridique applicable. La question du droit et de la cybersécurité sont déterminants de l’acceptabilité de cette technologie. L’activité robotique peut-elle s’autoréguler elle-même ou faut-il créer un cadre juridique spécifique ?

Au programme de cette conférence :

  • Faut-il un droit des robots ? Conférence de Maître Alain Bensoussan, avocat technologue, Cabinet Bensoussan, président et fondateur de l’Association du Droit des Robots (ADDR)
  • Faut-il certifier la cybersécurité des systèmes d’automatismes et de contrôle industriel (IACS en anglais, SCADA par exemple) ? Conférence de Monsieur Paul Théron, PhD, FBCI, Thales Communications & Security’s Cyberdefence Bids Manager and Expert on cyber-resilience.
  • Automatisation ou autonomisation ? Conférence de Maître Pascal Verniory, avocat, docteur en philosophie (option transdisciplinarité), juriste Etat-Major de la Direction générale des systèmes d’information de l’Etat de Genève.

Lieu : Hôtel Alpha-Palmiers, Rue du Petit-Chêne 34, Lausanne
Programme Clusis 2015 Robotique et cybersécurité
Renseignement et inscription

 




Conséquences de l’Intelligence artificielle sur la responsabilité

Conséquences de l'intelligence artificielle sur la responsabilitéLes robots ne deviendront jamais des humains à part entière mais les dépasseront grâce à l’Intelligence artificielle.

Ces développements ne sont pas sans conséquence sur la responsabilité …

Alain Bensoussan aborde pour Planète Robots, les conséquences de l’Intelligence artificielle sur les règles de responsabilité traditionnelles et innovantes.

L’ordinateur Deep Blue d’IBM a battu le champion du monde d’échecs, Garry Kasparov, en 1997. Le programme Watson a battu les champions du jeu « Jeopardy » (jeu télévisé où les candidats doivent retrouver une question à partir des réponses) en 2011. En 2014, un ordinateur a réussi le test de Turing…

L’Intelligence artificielle, avant d’être un élément robotique, est avant tout le résultat d’un code élaboré par des programmeurs, qui aura défini les limites des capacités de sa création.

C’est un fait incontestable, les robots vont devenir meilleurs que les humains dans l’exécution des tâches qui demandent une capacité d’analyse de l’environnement. Et ce n’est pas tant l’Intelligence artificielle qui permet ce basculement que le perfectionnement des capteurs : les robots entendent, voient et sentent bien mieux que nous. De plus, comme les informations traitées par lesdits capteurs peuvent être croisées avec les données qui existent déjà — par le biais d’Internet ou des big data— les robots vont développer une capacité d’analyse gigantesque !

En ce qui concerne le problème de la responsabilité du robot, il convient d’adopter une approche pragmatique, à défaut d‘un cadre légal approprié. Une solution serait d’envisager la responsabilité du robot non comme un bloc, mais partagée par les différents intervenants et de façon hiérarchisée, pour aboutir à une responsabilité en cascade.

Cette approche permettrait de désigner des responsables, seulement au regard de leurs fonctions (…)

Alain Bensoussan, pour Planète Robots, « Les conséquences de l’IA sur la responsabilité », n°32 Mars-Avril 2015.




Accompagner la commercialisation d’un robot humanoïde

Accompagner la commercialisation d’un robot humanoïdeComment accompagner le projet de commercialisation d’un robot humanoïde ? Quelle qualification juridique opérer ?

Pour accompagner le projet de commercialisation d’un robot humanoïde, le cabinet a été consulté. A cette occasion, il a analysé l’applicabilité de la responsabilité du fait des produits défectueux à un robot humanoïde.

Il a également été consulté sur le statut des robots au regard de la propriété intellectuelle et de la responsabilité.

Il s’est positionné sur des problématiques inédites d’une grande complexité eu égard au caractère hétérogène des composants d’un robot, à la multiplicité des acteurs et des compétences concourant à sa réalisation, et à la diversité des modes de commercialisation.

« Le cabinet  Alain Bensoussan Avocats est intervenu en matière de robot », Le Monde du droit, 18 janvier 2015.

 




Quel statut légal pour les robots et quelle responsabilité ?

Quel statut légal pour les robots et quelle responsabilité ?Quel statut légal pour les robots ? Alain Bensoussan a été interviewé par Frank Niedercorn pour le journal Les Echos.

Traitant des rapports homme-machine, des droits et des devoirs des robots dans la société et notamment des questions de responsabilité, Me Bensoussan est de ceux qui pensent qu’ils entrent dans une catégorie nouvelle, avec des devoirs, mais aussi des droits. Pour lui, « Un robot est une plate-forme autonome qui échappe à son propriétaire et n’est plus sous sa domination directe ».

« Un robot est aujourd’hui un objet juridique non identifié », confirme Alain Bensoussan, qui revendique la création d’une sorte de personnalité morale pour les robots, pure construction juridique permettant à des personnes « virtuelles » comme les sociétés commerciales ou les associations d’avoir des droits, un patrimoine propre, un compte bancaire, mais aussi des responsabilités…

Alain Bensoussan a crée en juillet 2013, au sein de son cabinet un département entièrement dédié au droit des robots dont le but est de poser les bases d’un nouveau droit qui devrait permettre de les doter d’une personnalité et d’une identité juridique.

Depuis janvier 2013, il assure une chronique juridique dans le magazine Planète Robots et est l’auteur d’une « charte sur les droits et devoirs des robots« .

Interview Les Echos du 14 octobre 2014.




Les robots, de futurs acteurs de télésanté ?

Les robots, de futurs acteurs de télésanté ?La Nasa fait état des premières interventions dans le domaine de la télémédecine à l’aide des robots.

La Nasa a révélé (1) que ses ingénieurs développent les capacités d’un robot dans le domaine de la télémédecine.

Aujourd’hui, téléguidés pour réaliser des actes médicaux, les robots ont vocation à devenir de plus en plus « autonomes ». Peut-on envisager, en France, la réalisation d’actes de télémédecine ou de télésanté par des robots ?

En France, les actes de télémédecine doivent s’inscrire dans le respect des dispositions légales et réglementaires (2). La réglementation prévoit cinq actes de télémédecine : la téléconsultation, la téléexpertise, la télésurveillance, la téléassistance et la réponse médicale.

Les actes de téléexpertise et de téléassistance requièrent la présence de deux professionnels de santé à distance l’un de l’autre. Les robots ne sauraient donc intervenir dans la réalisation de ces actes en lieu et place de l’un des professionnels de santé. En revanche, s’agissant de la téléconsultation et de la télésurveillance, la réglementation n’imposant pas la présence d’un professionnel de santé aux côtés du patient, un robot pourrait valablement s’y trouver et plus ou moins assister un professionnel de santé au cours de la réalisation de ces actes.

En matière de télésanté, le champ d’intervention des robots serait moins encadré et donc beaucoup plus large. Dans cette hypothèse, quel serait le régime de responsabilité applicable ?

Les enjeux en matière de responsabilité – Dans l’hypothèse selon laquelle un patient subirait un préjudice lié à la réalisation d’un acte dans le cadre duquel un robot serait intervenu, c’est en premier lieu la responsabilité de son utilisateur qui serait recherchée. Le régime de responsabilité applicable dépendra à la fois de sa qualification et de l’auteur de l’action en responsabilité, outre que la responsabilité pénale de son fabricant et/ou de son utilisateur pourrait, le cas échéant, être engagée.

Si le robot constitue un produit de santé et plus particulièrement un dispositif médical, à supposer qu’il soit « destiné par le fabricant à être utilisé chez l’homme à des fins médicale » (3) :

  • la responsabilité de son fabricant pourrait être actionnée sur le fondement de la responsabilité du fait des produits défectueux (4) ;
  • la responsabilité du professionnel de santé ou de l’établissement de santé propriétaire et/ou utilisateur pourrait être actionnée sans faute (5) en cas de dommage imputable à une action dudit robot.

Si le robot ne constitue pas un produit de santé mais un équipement électrique ou électronique (comme un appareil ménager) et se trouve utilisé dans le cadre de la réalisation d’un acte de télémédecine ou télésanté, ce serait également sur le fondement de la responsabilité du fait des produits défectueux, que le producteur pourrait voir sa responsabilité engagée par un patient, et/ou sur le fondement contractuel qu’il pourrait être poursuivi par l’établissement de santé qui le lui aurait acheté (6).

L’utilisateur et/ou le propriétaire du robot serait responsable vis-à-vis de la victime sur le fondement de la responsabilité du fait des choses. En l’absence d’autonomie du robot, la répartition traditionnelle des responsabilités ne serait donc a priori pas affectée. En revanche, si les robots devaient disposer d’une quelconque autonomie, un nouveau partage de responsabilité devrait être envisagé par la voie contractuelle et/ou normative (7).

Marguerite Brac de La Perrière
Lexing Droit Santé numérique

(1) Nasa, Vidéo du 15-1-2014
(2) CSP, art. L6316-1 ; Décret 2010-1229 du 19-10-2010
(3) CSP, art. L5211-1
(4) C. civ., art. 1386-1 et s.
(5) CSP, art. L. 1142-1
(6) C. civ., art. 1147
(7) Voir un précédent article du 21-2-2014




Vers un droit des robots dotés de l’autonomie décisionnelle

Vers un droit des robots » Vers un droit des robots « , tel est l’objectif annoncé par Me Alain Bensoussan, interviewé par Luc Fayard pour le site My DSI TV.

« Est un robot tout objet qui va prendre une décision qui n’a pas été programmée », explique l’avocat Alain Bensoussan, rédacteur d’un projet de charte éthique devant conduire à un droit des robots. Et cette définition s’applique à de plus en plus d’objets connectés.

Le critère de classification n’est plus celui de l’automatisme. Même équipé de capteurs sensoriels, un automate ne fait pas un robot. C’est un système programmé pour accomplir des processus répétitifs ou réagir à une suite d’événements prédéfinis (machine avec une intelligence programmée) dans lequel les degrés de liberté sont fermés. Pour que l’on puisse parler de robot, il faut intégrer une autre composante, celle de l’autonomie décisionnelle.

Aujourd’hui, la technologie permet au robot d’intégrer un processus décisionnel relevant de l’intelligence artificielle. Le recours à l’intelligence artificielle produit du sens et du discernement, une forme d’intelligence issue de raisonnements non préprogrammés. Certes on utilise un logiciel d’intelligence artificiel, mais l’ensemble de la séquence n’a pas été apprise au robot. Cette ébauche de définition va permettre de mettre en place une réflexion juridique, une première taxinomie pour un cadre juridique en devenir.

« Un robot est une personne, affirme-t-il, certes différente de la personne physique ou morale. Il faut donc élaborer un cadre particulier, à travers un droit des robots. Il faut en effet pouvoir l’identifier et lui donner des droits avec une personnalité juridique, à l’instar des personnes morales. Ce statut singulier permet de reconnaître à des personnes « virtuelles » des droits et des obligations qui les font assimiler à des personnes physiques. Il faudra donc changer les contrats pour tenir compte des nouvelles responsabilités assumées par les robots et les entreprises qui les utilisent. »




Un statut juridique pour le robot

robotUn statut juridique du robot est à définir, estime Alain Bensoussan, interviewé par Fédérico Nicotra et Noé Salem pour le 19/20 national de France 3.

Navia est un véhicule électrique robotisé, sans chauffeur, qui peut transporter jusqu’à 8 passagers. Pour l’instant, la navette Navia n’est autorisée à circuler sur la voie publique qu’occasionnellement ou dans le cadre de décrets particuliers.

En attendant une législation adaptée, Navia circule beaucoup sur des sites privés ou réservés. Il faut donc définir un statut juridique pour ce nouvel acteur dans la société. « Ici, on voit bien qu’un robot existe, il est en prise de décision, il est complètement autonome, il est en interaction avec son environnement et les humains. »

Mais paradoxalement, si la loi ne définit pas précisément la notion de conducteur, alors que les décrets d’application imposent la présence d’un être humain capable de prendre le contrôle du véhicule. « C’est vrai qu’on ne peut pas laisser un robot dans la nature en toute liberté de circulation, mais il faut nécessairement libérer la technologie et que le droit qui est basé sur la technologie ancienne ne soit pas un carcan pour les technologies et notamment des technologies aussi innovantes que celle-ci. »

– interview dans le 19/20 national de France 3 présenté par Carole Gaessler (lundi 7 octobre 2013)




Le droit des robots : Conférence vidéo pour Supinfo

droit des robots « Le Droit des Robots, un nouveau droit » tel est le thème abordé par Me Alain Bensoussan devant les étudiants de SUPINFO.

Le mardi 02 avril, SUPINFO Nantes a eu l’honneur d’accueillir dans ses locaux Maître Alain Bensoussan, avocat à la cours d’appel de Paris spécialisé en droit de l’informatique et de la télématique, fondateur de Lexing ®, premier réseau international d’avocats technologues dédié au droit des technologies avancées.

Au cours de cette journée, Maître Bensoussan a animé une conférence autour d’une thématique qui lui est chère et qui met en perspective les grands enjeux des nouvelles technologies du futur : « Le Droit des Robots, un nouveau droit ».

Le Droit des Robots, un nouveau droit : Les robots deviendront-ils demain des sujets juridiques ?
Le développement des marchés de la robotique, de l’internet des objets et de la virtualisation conduit à l’émergence d’un nouveau droit, le Droit des Robots. Ce tournant dans l’histoire du droit, engendre de nouvelles problématiques sur lesquelles Maître Bensoussan apportera son regard d’expert: de la responsabilité à la propriété, en passant par le respect de la vie privée, les manipulations malveillantes, l’espionnage ou encore les robots chirurgiens, traders…

Il se présente en quatre parties :
Première partie : la typologie à travers les services ;
Seconde partie : les problématiques selon les différentes catégories de robots ;
Troisième partie : la situation juridique aujourd’hui ;
Quatrième partie : le régime juridique pour demain.




Les robots sont-ils responsables de leurs actes ?

robotAlain Bensoussan aborde dans la seconde chronique qu’il tient dans Planète Robots, la question de la responsabilité des robots.

Aussi parfaits soient-ils, les robots ne sauraient être infaillibles, il en va comme en matière humaine…

Alain Bensoussan met en perspective les lois d’Asimov avec les grands principes de droit posés par le Code civil et le Code pénal pour protéger la personne humaine.

À terme, les robots intelligents seront conduits à répondre de leurs actes à mesure qu’ils acquerront de l’autonomie décisionnelle.

Alain Bensoussan pour Planète robots, mars-avril 2013