Parution du n°61 de Planète Robots (janvier-février 2020)

L61 de Planète Robotse n°61 du magazine Planète Robots (janvier-février 2020) est paru le 24 décembre.

Au sommaire du n°61 de Planète Robots

  • un dossier spécial consacré à la réalité virtuelle ;
  • une sélection de casques virtuels, dont l’Oculus Quest de Facebook qui fait la Une de ce numéro ;
  • Un entretien avec Laurent Chétrien, DG du salon Laval Virtual
  • un retour sur l’inauguration du centre de chirurgie robotisée d’Amiens par Emmanuel Macron
  • un compte-rendu de la 3ème édition du salon Robomeetings Smart Industry de Saint-Quentin.

Mais également:

  • les ruptures technologiques de 2020 ;
  • les robots dans le secteur nucléaire ;
  • les nouveaux robots d’esploration spatiale ;
  • les robots qui font du ski ;
  • les robots tueurs SALA ;
  • les robots masseurs ;

Retrouvez enfin la chronique de droit des robots d’Alain Bensoussan consacrée à  « La 3D confrontée à la problématique des données personnelles ».

N° 61 du magazine Planète Robots, janvier/février, 98 p., 6,50 euros
Site du magazine.

Eric Bonnet
Avocat
Directeur de la communication juridique




Conférence sur les réseaux sociaux à l’usage des artistes

réseaux sociaux à l’usage des artistesNaïma Alahyane Rogeon interviendra au côté d’Alexia Guggémos, journaliste et critique d’art, sur les réseaux sociaux à l’usage des artistes

La conférence a lieu au siège de l’Adagp (Société des Auteurs dans les Arts graphiques et plastiques) le 7 janvier prochain à 11H.

Quelles sont les bonnes pratiques et les précautions juridiques à tenir pour gérer efficacement sa présence sur les réseaux sociaux ?

Cette intervention à destination des artistes fait suite à la parution de l’ouvrage d’Alexia Guggémos, « Guide de Survie digitale » – les réseaux sociaux à l’usage des créateurs (1).

Si les réseaux sociaux sont de véritables opportunités pour une représentation des œuvres sur internet, il n’en demeure pas moins que certaines règles et bonnes pratiques sont à suivre afin de d’optimiser sa communication sur le web social et protéger ses réalisations.

Alexia Guggemos et Naima Alahyane Rogeon répondront aux interrogations des artistes sur les sujets des jeux d’influence sur le web social.

La conférence est organisée en partenariat avec la Maison des artistes qui mène depuis sa création des missions d’intérêt général d’accompagnement, de conseil et d’entraide des artistes.

Cette conférence gratuite et ouverte à tous les artistes intéressés par les questions relatives à la représentation et à la promotion des œuvres sur la toile.

(1) Le Guide de Survie digitale – Les réseaux sociaux à l’usage des créateurs, In Fine Editions (groupe Les Echos), 2019.




Les nouveaux outils de conformité Informatique et libertés

conformité informatique et libertésQuels sont les nouveaux outils de conformité Informatique et libertés ? Comment les mettre en œuvre ?

Le cadre juridique de la protection des données a été entièrement révisé par le droit européen qui opère un renversement des logiques antérieures. Le nouveau cadre légal tel que résultant du RGPD supprime les formalités préalables de déclaration des traitements à la Cnil au profit de nouveaux mécanismes d’autocontrôle visant à responsabiliser les acteurs.

Le contrôle « a posteriori » mieux adapté aux évolutions technologiques, est effectué sur la base d’une autorégulation grâce à la responsabilisation des acteurs (logique de conformité et de responsabilité, dite d’« accountability »).

Les organismes traitant des données à caractère personnel, mais aussi leurs prestataires et sous-traitants, sont désormais pleinement responsables de la protection des données qu’ils traitent. Il leur appartient d’en assurer la conformité à la loi tout au long de leur cycle de vie et d’être en mesure de démontrer cette conformité à tout moment (principe d’accountability).

Par conséquent, la protection des données et le respect de la vie privée doivent être intégrés, dès la conception, aux spécifications et à l’architecture des systèmes d’information et de communication.

Parmi les autres outils de conformité Informatique et libertés figure la conduite d’une analyse d’impact relative à la protection de la vie privée. Elle s’effectue avant que le traitement de données à caractère personnel soit mis en œuvre et vise les traitements susceptibles d’engendrer un risque élevé pour les droits et libertés des personnes physiques (notamment les traitements à grande échelle de données sensibles).

Ce livre blanc présente la stratégie à adopter pour se mettre en posture de conformité.

  • Quels sont les nouveaux outils de conformité mis en place par la loi ?
  • Comment les mettre en œuvre ?

Ce livre blanc est extrait de la 3e édition de l’ouvrage Informatique et libertés de Maître Alain Bensoussan paru en décembre 2019

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications

Voir également l’interview vidéo, émission La Quotidienne du 17 décembre 2019.




Deepfakes : quelles sont les solutions juridiques ?

DeepfakesLes solutions juridiques aux Deepfakes, Alain Bensoussan apporte des réponses au journal Usbek & Rica. Doit-on céder à la panique face au phénomène des fausses vidéos ?

Les Deepfakes peuvent transformer les comportements

De l’avis d’Alain Bensoussan, avocat spécialisé dans les nouvelles technologies : « Ce n’est pas un problème de quantité ni de qualité. (…) Mais n’importe qui peut désormais devenir un démon de la manipulation ».

Si l’arsenal législatif permettant de sanctionner de telles pratiques existe déjà en France, son application sur le terrain se montre toujours très compliquée. Les deepfakes en tant que créations numériques recoupent en effet des problématiques majeures liées à Internet comme la liberté d’expression, la neutralité des plateformes (Facebook, Twitter, etc.), mais aussi le droit à l’anonymat.

Si vous portez atteinte à une personne, la victime a le droit d’obtenir votre nom, prénom et adresse pour vous poursuivre devant les tribunaux, explique l’avocat. C’est l’hébergeur qui est détenteur de cette sorte de clef. Mais beaucoup de personnes l’ignorent encore ».

Il faut avant tout responsabiliser les individus face à l’usage de ces outils et aux ravages qu’ils peuvent provoquer, tel le cyber-harcèlement. Alain Bensoussan rappelle la triste réalité :

Soit vous êtes assez puissant pour prendre un avocat ou lancer une contre-information, soit vous êtes un peu faible et vous allez vous faire écraser. Il faut donner le pouvoir aux associations de lutter en votre nom ».

Quelles sont les réponses juridiques ?

La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information (« fake news ») pendant les périodes de campagne électorale fournit de premières armes pour lutter contre ce phénomène.

Elle prévoit notamment la création d’un référé spécifique pour faire stopper en urgence la diffusion des fausses informations dont on pourrait s’inspirerC’est également la solution prônée par l’avocat :

 favoriser des référés extrêmement rapides et augmenter de manière très importante les condamnations à des peines de prison ».

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications




Parution de la 3e édition de l’ouvrage Informatique et libertés

ouvrage Informatique et libertésLa 3e édition de l’ouvrage Informatique et libertés d’Alain Bensoussan vient de paraître aux éditions Francis Lefebvre.

Cette 3e édition permet de tout savoir de la nouvelle architecture de la loi de 1978 redessinée par le décret du 30 mai 2019 et des « marges de manœuvre nationales » autorisées par le RGPD.

Elle est en effet consacrée à la nouvelle rédaction de la loi loi du 6 janvier 1978 en vigueur depuis le 1er juin 2019.

Rappelons que par souci d’intelligibilité, le législateur a pris le parti de conserver l’architecture de la loi de 1978, d’abroger les dispositions contraires au RGPD et de mettre en conformité celles qui devaient l’être, ce qui nécessite de lire de manière combinée le RGPD et la loi du 6 janvier 1978.

La nouvelle architecture de la loi de 1978

La nouvelle loi comporte désormais 128 articles (contre 71 auparavant) articulés autour de 5 titres :

  • Les dispositions communes au RGPD ;
  • Les traitements relevant du régime de protection des données à caractère personnel prévu par le RGPD ;
  • Les dispositions applicables aux traitements relevant de la directive (UE) 2016/680 du 27 avril 2016 (dite « Directive Police Justice ») ;
  • Les dispositions applicables aux traitements intéressant la sûreté de l’Etat et la défense ;
  • Les dispositions relatives à l’outre-mer.

L’ouvrage Informatique et libertés

Cette nouvelle édition par laquelle les Editions Francis Lefebvre ont bien voulu nous témoigner de leur confiance, est préfacée par Marie-Laure Denis, Présidente de la Cnil. L’ouvrage présente :

  • les nouveaux droits (déréférencement d’une information grâce au droit à l’oubli, récupération de ses données grâce au droit à la portabilité, limitation du traitement, etc.) ;
  • le principe de responsabilisation de l’ensemble des acteurs intervenant dans la chaîne d’un traitement de données à caractère personnel (responsable du traitement, sous-traitants, responsables conjoints) ;
  • les nouveaux outils de conformité à la loi Informatique et libertés (l’accountability, l’analyse d’impact, etc.) ;
  • la généralisation du délégué à la protection des données ;
  • les nouveaux pouvoirs et missions de la Cnil, etc.

Il est enrichie d’analyses sur les nouvelles technologies et secteurs d’activités (cloud computing, blockchain, traitements algorithmiques, techniques de pseudonymisation, services numériques, etc.).

Informatique et libertés, Alain Bensoussan,
Editions Francis Lefebvre, 3e Ed. 2019.

Voir également :
– l’interview vidéo, émission La Quotidienne du 17 décembre 2019.
– le Livre blanc extrait de l’ouvrage, « Quels sont les nouveaux outils de conformité à la loi Informatique et libertés ? », 16 décembre 2019.

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications




Les Smart Travel Cities à l’honneur du To.te.c 2019

Smart Travel CitiesJérémy Bensoussan participe le 17 décembre au To.te.c 2019, événement dédié cette année aux Smart Travel Cities.

600 décideurs français et étrangers du tourisme, du voyage d’affaires et du digital se réunissent à Paris (Pavillon Cambon) dans le cadre de la 11ème édition du To.te.c (Tourisme Technology Conferences) organisée par Eventiz Media Group.

Au programme : des conférences et tables rondes sur le thème des « Smart Travel Cities » portant sur l’impact des nouvelles technologies sur la ville de demain, ainsi qu’un déjeuner et un cocktail dédiés au networking entre les acteurs du tourisme, du voyage d’affaires et du digital.

To.te.c 2019 : la ville de demain

Les Smart Travel Cities poussant à travers le globe préfigurent la ville de demain : connectée, intelligente et, souhaitons-le, conçue autour du respect de l’environnement et du bien-être des usagers.

  • Qu’entend-on par « Seamless Mobility » ?
  • Comment et pourquoi les géants de la Tech veulent-ils apporter du « social » en plus de la « mobilité » ?
  • Quels impacts auront les véhicules autonomes sur notre rapport au temps et les modèles économiques ?
  • Comment serons-nous hébergés ?
  • Pourquoi ces villes modifieront-elles les attentes des touristes et des voyageurs d’affaires ?
  • A l’heure de la 5G, qu’est-ce qui aura réellement de la valeur ?
  • Comment devront évoluer les services et produits pour répondre aux nouvelles attentes des voyageurs ?

Telle un OS, la ville sera une plateforme sur laquelle les entreprises grefferont leurs services. Pour être performant, mieux vaut connaître son environnement et les opportunités.

Le programme des Smart Travel Cities

09:30 Discours d’ouverture

  • Frédéric Vanhoutte, Président d’Eventiz Media Group, Fondateur du TO.TE.C

09:45 Comprendre la smart city à travers le tourisme

  • Cyril Blanchet, Doctorant en Sciences de l’information et de la communication, Université Paris-Est, Laboratoire Dicen-IDF (UPEM).

10:00 Smart Travel Cities : ACT II du Nouvel Ordre

  • Christian Delom, Chief Operating Officer, Boobuz

10:15 Smart City : Tout commence par la gestion des données

  • Cyril Banos, Président de Panga

10:30 Comment un office de Tourisme développe ses missions dans une smart city

  • Emmanuelle Breuil-Salles, Directrice Office de Tourisme et Relations Internationales d’Issy-les-Moulineaux

10:45 Du transport de masse au transport de MaaS

  • Dimitri Tsygalnitzky, VP Kapten Business

11:00 Mobility As A Service : vers un modèle à la française

  • Julien Nicolas, Directeur Général Adjoint e.Voyageurs SNCF

11:15 Les JO 2024 à Paris: enjeu du soft power de la France

  • Guillaume Cussac, Directeur Financier et responsable de l’offre Accueil & Hébergement du Comité de candidature aux Jeux Olympiques et Paralympiques Paris 2024

11:30 L’écosystème juridique de la data : opportunités et risques de la Smart Travel City

11:45 Smart City : l’heure du passage à l’échelle en France

  • Philippe Sajhau, Vice President Energy-Utilities, Telecom-Media and Cities IBM France

12:00 Quick Vision – Smart Currencies : les devises comme avantage compétitif

  • Nicolas Marquet, Director FX Solutions – Kantox

12:15 Slider des startups : Les startups ont une minute pour vous convaincre !

  • Prise de parole d’Evantia Giumba, Head of Amadeus for Startups, EMEA

12:30 Cocktail déjeuner

14:30 Transformons le terrain de jeu de l’hospitalité

  • Frédéric Fontaine, SVP Global Innovation Accor

14:45 Quick Vision – Politiques voyages et innovations sont-elles irréconciliables ?

  • François Barde, Directeur Commercial – Ector

14:50 Table-ronde : Comment les Smart Cities vont-elles transformer les modèles des acteurs publics et privés du Travel ? 

  • François Sillion, Directeur de l’Advanced Technologies Centre in Paris (ATCP) de Uber
  • Marie-Caroline Bénézet Directrice Digital & Technologies SNCF Gares & Connexions
  • François Guéno, Directeur de la Transformation et de l’Innovation de VIPARIS
  • Magali Ferrand, Directrice Déléguée du Tourisme et du Thermalisme, Région Occitanie
  • Patrick Torrent, Executive Director, Catalan Tourist Board

15:35 Clôture des conférences

Rendez-vous au TO.TE.C 2019 pour rencontrer les experts et avoir une vision précise de la ville de demain.




La Cnil et la reconnaissance faciale aux abords des lycées

reconnaissance faciale aux abords des lycéesAlain Bensoussan évoque pour Digital Mag la reconnaissance faciale aux abords des lycées et les précisions apportées par la Cnil.

Saisie d’une expérimentation prévoyant le recours à la reconnaissance faciale à l’entrée de deux lycées marseillais et niçois, la Cnil a considéré que « ce dispositif concernant des élèves, pour la plupart mineurs, dans le seul but de fluidifier et de sécuriser les accès n’apparaissait ni nécessaire, ni proportionné pour atteindre ces finalités » (Séance plénière du 17 octobre 2019).

Reconnaissance faciale aux abords des lycées : les données sensibles d’un public… sensible

S’agissant de mineurs de plus de 15 ans, même si leur consentement était acquis, la question se pose d’un choix réel et non contraint. Par ailleurs, la sécurisation des données biométriques est toujours problématique et ce proportionnellement au risque important d’atteinte aux libertés individuelles des personnes concernées.

Après un examen attentif du projet, la Cnil a considéré que le dispositif projeté est contraire aux grands principes de proportionnalité et de minimisation des données posés par le RGPD (Règlement général sur la protection des données).

En effet, les objectifs de sécurisation et la fluidification des entrées dans ces lycées peuvent être atteints par des moyens bien moins intrusifs en termes de vie privée et de libertés individuelles, comme par exemple un contrôle par badge.

Les technologies de reconnaissance faciale présentent beaucoup d’intérêt en matière de sûreté et de sécurité, mais elles sont aussi porteuses d’un risque important d’atteinte aux libertés individuelles.

Ces technologies soulèvent encore de nombreuses questions non résolues. C’est pourquoi la Cnil a appelé à un débat démocratique sur ce sujet, ainsi que plus largement sur les nouveaux usages de la vidéo.

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications

Alain Bensoussan,  « Reconnaissance faciale aux abords des lycées, les précisions de la Cnil », DigitalMag n° 258 p.42-43 décembre 2019.




La protection des créations culinaires, un enjeu français

créations culinairesLa protection des créations culinaires constitue un enjeu de valorisation du patrimoine et de l’économie française.

Une protection incomplète des créations culinaires par la propriété intellectuelle

En droit positif français, la protection de la création culinaire est faible : aucun droit de propriété intellectuelle ne permet d’apporter une protection claire et uniforme à ces créations à ce jour.

En effet, ce n’est pas l’ensemble de la création culinaire qui pourra être protégée par le droit existant, mais seulement certaines caractéristiques de cette création.

A titre d’exemple, une recette de cuisine, rédigée à l’écrit, pourrait constituer une œuvre de l’esprit protégeable par le droit d’auteur, à condition qu’elle soit originale et porte « l’empreinte de la personnalité » de son auteur. Toutefois, cette protection ne portera que sur l’œuvre littéraire elle-même et non pas sur la recette en tant que telle et n’interdira pas la réalisation de la recette.

La recette de cuisine en tant que telle s’apparente juridiquement plus à un savoir-faire, protégeable comme un secret de fabrique. La recette du Coca-cola par exemple est protégée par ce biais.

De même, les techniques innovantes mises en œuvre lors de la réalisation de la création culinaire peuvent donner lieu à une protection par brevet à condition que la recette apporte une solution technique non évidente à un problème technique préexistant. Cela peut par exemple être une recette permettant de confectionner une soupe dans laquelle le foie gras ne se mélangerait pas avec la gelée de poule (1).

Par ailleurs, le nom d’une création culinaire peut être déposé à titre de marque, à condition d’être distinctif par rapport aux produits désignés, c’est-à-dire de ne pas être uniquement constitué de termes indiquant les produits utilisés dans cette préparation ou le nom de cette préparation, comme la marque MON HUILE DE HOMARD pour désigner un condiment aromatisé au homard (2).

Enfin, l’apparence d’une création culinaire peut également faire l’objet d’une protection par le biais du dépôt d’un modèle, à condition de satisfaire aux conditions de protection des dessins et modèles, à savoir la nouveauté (absence de divulgation antérieure identique) et le caractère individuel ou propre (l’impression d’ensemble diffère de celle produite par tout modèle divulgué antérieurement). Un chef, créateur d’une nouvelle forme de tarte aux pommes dont la caractéristique tient au positionnement des pommes en forme de boutons de rose, a ainsi choisi de protéger sa création par le dépôt de deux modèles, dont la validité a été confirmée par le Tribunal de grande instance de Paris (3).

Hormis ces quelques exemples, force est de constater qu’aucun droit de propriété intellectuelle ne permet d’apporter une protection claire aux créations culinaires.

L’arrêt du 13 novembre 2018 rendu par la Cour de justice de l’Union européenne, qui a fermé la voie du droit d’auteur aux saveurs culinaires en décidant qu’une saveur culinaire ne peut être qualifiée d’œuvre (4) et le refus des Offices de propriété industrielle français et européens de protéger les saveurs à titre de marque témoignent des limites du droit existant.

La proposition de loi relative à la protection des recettes

Pour mettre un terme à la vulnérabilité de la création culinaire, une proposition de loi Bresnier n°1890 relative à la « protection des recettes et des créations culinaires » a été présentée à l’Assemblée nationale le 30 avril 2019 (5).

Le projet de loi prévoit, en premier lieu, la création d’un Institut national de la création culinaire certifiée, habilité à délivrer des certificats de création culinaire pour protéger, pendant 20 ans, les créations culinaires.

Les créations culinaires seraient inscrites sur un registre national public reprenant les éléments permettant aux tiers de reproduire la recette (ingrédients, recette, etc.).

Pour se voir octroyer un tel certificat, les créations devront :

  • être nouvelles, c’est-à-dire jamais rendues accessibles au public avant la date de dépôt de la demande de certificat de création culinaire par une description écrite ou orale, un usage ou tout autre moyen ;
  • impliquer une activité créatrice, définie comme une non-évidence pour l’homme du métier ;
  • présenter un caractère gustatif propre pour donner une impression d’ensemble de « non déjà gouté ».

Le détenteur d’un certificat de création culinaire serait ainsi titulaire de droits patrimoniaux (droit d’exploitation) et moraux (droit de divulgation, droit au nom, droit au respect de la création culinaire) sur cette création.

Toute atteinte à ce nouveau droit de propriété constituerait un acte de contrefaçon. Une action en contrefaçon sanctionnerait la fabrication, l’utilisation ou la détention non autorisée de la création culinaire.

Le texte prévoit également l’existence d’un régime spécifique pour les créations des salariés, une procédure d’opposition dans un délai de deux mois à compter de la publication de la demande de certificat.

Si cette proposition de loi, inspirée des régimes existant en matière de droit d’auteur et de droit des marques, voyait finalement le jour, elle serait susceptible de séduire les professionnels de l’industrie agro-alimentaire, en leur offrant une solution pour protéger leurs créations culinaires.

Si cette initiative est intéressante, elle amène néanmoins des questions pratiques : comment analyser le critère du caractère gustatif propre quand les saveurs ne sont pas perceptibles de la même manière selon les personnes ? Comment réaliser une recherche d’antériorités en matière de saveurs ?

Cette proposition de loi a été renvoyée à la Commission des affaires culturelles et de l’éducation. Affaire à suivre.

Anne-Sophie Cantreau
Claire Deramoudt
Lexing Propriété industrielle conseil

(1) « Soupe chaude de foie gras à la gelée de poule »
(2) CA Rennes, 3e ch. comm., 23-10-2018, n° 18/01378
(3) TGI Paris, 3e ch., 15-03-2018, n° 16/10841
(4) CJUE, 13-11-2018, Levola Hengelo BV c. Smilde Foods BV aff. C.310/17
(5) Proposition de loi relative à la protection des recettes et créations culinaires, Doc. n° 1890 déposé le 30-04-2019 à l’Assemblée nationale.




Droit médical : l’e-réputation du médecin à l’ordre du jour

e-réputation du médecinL’e-reputation du médecin fait l’objet d’une double actualité pour le cabinet qui interviendra au GEM-congrès 2019 et a participé sur ce thème à un ouvrage qui vient de paraître.

Alain Bensoussan aborde l’e-réputation du médecin à l’occasion du GEM-congrès 2019 qui se tient au Palais des Congrès de Paris, les 19 et 20 décembre.

Cette année, le GEM-congrès (1) est placé sous la thématique de l’INNOVATION (chirurgie mini-invasive, impression 3D médecine régénérative, etc.). Une table ronde est consacrée aux défis juridiques qui peuvent se poser au chirurgien de la main.

L’occasion de présenter l’ouvrage qui vient de paraître, concernant les problèmes juridiques auxquels peut être confronté le chirurgien : « Le chirurgien face à une procédure juridique » et dont la direction a été confiée au Docteur Yves Jacob, chirurgien et expert national, par la Société française de Chirurgie de la Main (GEM).

Il a su réunir de multiples personnalités dont la notoriété et la compétence dans leur domaine font référence et autorité, parmi lesquels Alain Bensoussan et Virginie Bensoussan-Brulé, avocats au cabinet Lexing Alain Bensoussan Avocats.

« Il y a peu de chance qu’un chirurgien ne soit confronté au cours de sa carrière à une mise en cause et la chirurgie fonctionnelle que nous exerçons a le triste privilège d’être la plus exposée à une procédure judiciaire.
Cet ouvrage a pour ambition de répondre aux différentes difficultés d’ordre juridique auxquelles peut être confronté le chirurgien.
Ce travail est envisagé sous une approche pragmatique traitant de la sinistralité du chirurgien de la main, des différentes procédures et leurs particularités, des situations pouvant exposer le chirurgien à une procédure et de questions d’actualités ouvrant la voie à une réflexion de nature juridique et éthique ».

Parmi les nouveaux défis juridiques du secteur médical : l’e-réputation du médecin. Si les praticiens s’approprient désormais les réseaux sociaux pour renforcer leur visibilité, développer leur clientèle et étendre leur réseau professionnel, ils ne sont pas à l’abri d’une atteinte à leur réputation…

L’e-réputation du médecin : le défi de leur communication 2.0

Avis négatifs, injures, diffamation, dénigrement : comment lutter contre l’e-médisance des patients mécontents ?

« Alain Bensoussan, avocat spécialiste dans le Droit du Numérique et des Nouvelles Technologies, parle de la viralité des réseaux sociaux et l’absence de « droit à l’oubli » sur internet qui imposent une vigilance de chaque instant et la nécessité de réagir très vite.
Son intervention permettra de connaître les moyens à mettre en place pour valoriser sa e-réputation, savoir comment réagir face à une atteinte à sa e-réputation et connaître les actions à mettre en oeuvre à l’égard des intermédiaires techniques (forums de discussion, médias sociaux tels que Facebook ou Twitter) ».

Alain Bensoussan et Virginie Bensoussan-Brulé, « L’e-réputation des médecins », p. 225 dans « Le chirurgien face à une procédure juridique », sous la direction de Yves Jacob, éditeur Jérôme Do Bentzinger, 2019.

Eric Bonnet
Avocat
Directeur de la communication juridique

(1) G.E.M. (groupe d’études de la main, devenu depuis la société française de chirurgie de la main).

 




Petit-déjeuner « Intelligence artificielle et santé »

Intelligence artificielle et santéL’intelligence artificielle (IA) révolutionne le secteur de la santé, offrant de formidables avancées et perspectives en matière de prévention, de prédiction, d’aide à la décision, de médecine de précision.

Marguerite Brac de La Perrière avocate, directrice du département Santé numérique qu’elle a créé il y a près de 10 ans au sein du cabinet Lexing Alain Bensoussan Avocats animera un petit-déjeuner débat le mercredi 15 janvier 2020 sur le thème « Intelligence artificielle et santé ».

Dans sa résolution du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique, le Parlement européen note « l’incidence que l’IA a déjà eue sur le bien-être, la prévention, les diagnostics, la recherche ainsi que son potentiel considérable en matière de conception de soins personnalisés ».

Dans son rapport sur l’IA et les données de santé, Cédric Villani appelait de ses vœux un « système de données ouvert », considérant que toutes les données qui aujourd’hui existent de façon disséminée n’ont pas vocation à être utilisées seulement par l’équipe de recherche qui les a recueillies. Elles doivent être mises à disposition de l’ensemble du monde de la recherche et, au-delà, des gestionnaires du système de santé et des start-up susceptibles de proposer des services nouveaux.

Dans cette logique, la loi du 24 juillet 2019 relative à l’organisation et à la transformation du système de santé (Ma santé 2022) a créé le Health Data Hub, lancé le 1er décembre 2019. Il s’agit d’une plateforme de données de santé complétant le Système National de Données de Santé créé en 2016, permettant à des centres de recherche mais aussi à des industriels de réaliser des demandes d’accès aux données nécessaires à un projet d’intérêt général, après autorisation de la Cnil.

Pour l’heure, plusieurs projets ont été sélectionnés comme « préconfigurateurs ».

Dans ce contexte, il devient nécessaire d’appréhender les conditions de traitement des données massives, d’anticiper sur les conditions d’accès au Healh Data Hub et de contractualisation à cette fin.

Venez en débattre avec Marguerite Brac de La Perrière le 15 janvier 2020 autour d’un petit-déjeuner, de 9h30 à 11h30 (accueil à partir de 9h00) dans nos locaux, 58 Gouvion-Saint-Cyr, 75017 Paris.




Lexing Alain Bensoussan à la Nuit des Legaltechs : Data et algorithmes

Nuit des legaltechsLe cabinet Lexing Alain Bensoussan a largement participé à la Nuit des Legaltechs 2019, organisée par l’Incubateur du Barreau de Paris et le Barreau entrepreneurial.

La soirée qui a débuté par une intervention de Marie Aimée Peyron, Bâtonnier de Paris et une présentation des activités de l’incubateur ainsi que des projets incubés dans le cadre du programme d’incubation physique mené par l’incubateur, s’est déroulée le 19 novembre au Cloud Business Center.

La Nuit des Legaltechs 2019 : Data et algorithmes

La conférence sur « La data, levier de développement de vos cabinets », était animée par Nathalie Attias et Arnaud Touati. Alain Bensoussan, Jean-Luc Sauron, Thierry Wickers et Grégory Lewkowicz.

La conférence était suivie de tables rondes sous forme de speed coaching (12 tables de 10 personnes dont 2 intervenants avec 4 tours de 20 minutes soit 80 minutes).

 

Tables rondes de la Nuit des Legaltechs 2019

Déontologie et legaltech

  • Nathalie Attias, Avocat
  • Zakia Baki, Avocat

L’incubateur répond à vos questions

  • Mathieu Bui, Avocat
  • Eva Moral, Avocat
  • Melhik Boudemagh, Président d’Hercule

Comment trouver des clients avec les plates-formes de mise en relation ?

  • Mathieu Davy, Avocat, (Call a lawyer)
  • Julien Latouche (Votre Robin)
  • Pierre-Xavier Chomiac de Sas, Avocat

Publicité, notation et avocats

  • Louis Degos, Avocat
  • Frédérique Bonaventura, Lexposia

RGPD : suis-je en conformité ?

  • Jérôme Deroulez, Avocat
  • Pierre-Emmanuel Frogé, Avocat

Comment apprivoiser l’intelligence artificielle ?

  • Thierry Wickers, Avocat
  • Jacques Lévy Vehel, Case law analytics

Exploiter ses data

  • Pierre-Igor Legrand, Avocat
  • Pierre Affagard, Avocat

Le legal design

  • Caroline Laverdet, Avocat

Comment créer une legaltech ?

  • Alexis Deborde, Consultant, responsable du programme incubation de l’incubateur
  • Harry Allouche, Avocat

Justice prédictive retours d’expériences et nouveaux usages

Prendre le contrôle de ses données : enjeux de sécurité, confidentialité et secret pro

Productivité et avocat de demain

  • Arnaud Touati, Avocat
  • Léo Régoli, Chef de projet Legaltech chez Hercule
  • Justine Menu, Judi’predis




Formation sur le contentieux informatique et libertés

contentieux informatique et libertésVirginie Bensoussan-Brulé anime une formation sur le contentieux informatique et libertés pour Lamy Formation (Wolters Kluwer).

L’ensemble des organismes qui traite des données à caractère personnel peut être soumis à un contrôle : entreprises privées, associations ou organismes publics, prestataires sous-traitants, en charge de la mise en œuvre d’un traitement, pour le compte d’un responsable du traitement.

Le contentieux informatique et libertés

Cette formation qui a lieu le vendredi 29 novembre 2019 et abordera notamment :

  • Les infractions à la loi Informatiques et libertés (Panorama des infractions à la loi Informatique et libertés, peines principales et peines complémentaires) ;
  • Pouvoir de sanction de la Cnil (sanctions administratives correctrices et financières) ;
  • La procédure devant la formation restreinte de la Cnil (Aspects procéduraux et mise en situation) ;
  • Les nouvelles règles de responsabilité issues du RGPD (régime de responsabilité et de réparation).

En 2018, la Cnil a utilisé ses nouvelles prérogatives en adoptant les premières sanctions dans le nouveau cadre répressif. Elle a ainsi procédé à 49 mises en demeure, dont cinq concernent le secteur de l’assurance. Au total, l’autorité a prononcé dix sanctions pécuniaires (dont 9 publiques) à l’encontre d’entreprises (1).

Dans cette formation au contentieux relatif à la loi informatique et libertés, les objectifs sont triples :

  • premièrement : identifier les différentes infractions à la réglementation sur les données personnelles ;
  • deuxièmement : savoir se défendre devant la formation restreinte de la Cnil ;
  • troisièmement : appréhender le nouveau régime de responsabilité mis en place par le RGPD.

Programme détaillé.

(1)  Cnil, Rapport d’activité 2018




Protection des données dès la conception et par défaut

Protection des données dès la conceptionLe Comité européen de la protection des données (CEPD) soumet à consultation publique un projet de lignes directrices 4/2019 sur la protection des données dès la conception et par défaut.

En vertu du règlement général sur la protection des données (RGPD), les principes de protection des données dès la conception et de protection des données par défaut sont devenus des obligations légales pour les responsables du traitement des données et leurs sous-traitants (1).

A ce titre, ils doivent mettre « en œuvre des mesures techniques et organisationnelles appropriées […], qui sont destinées à mettre en œuvre les principes relatifs à la protection des données […] de façon effective et à assortir le traitement des garanties nécessaires afin de répondre aux exigences du présent règlement et de protéger les droits de la personne concernée » (RGPD art. 25, § 1).

La protection des données dès la conception

Le responsable du traitement et ses sous-traitants doivent respecter cette obligation de protection dès la conception c’est-à-dire :

  • « tant au moment de la détermination des moyens du traitement » (lorsque les systèmes de traitement sont conçus, développés et testés)
  • « qu’au moment du traitement lui-même » (lorsque le système de traitement est exécuté).

Par conséquent, la protection des données et le respect de la vie privée doivent être intégrés, dès la conception, aux spécifications et à l’architecture des systèmes d’information et de communication.

Cela implique la prise en compte de nombreux critères tels que :

  • « l’état de la technique » qui impose de se tenir informés des progrès technologiques afin d’assurer la mise en œuvre efficace et continue des principes de protection des données.
  • « les coûts de mise en œuvre » qui nécessitent de prendre en compte le coût et les ressources nécessaires à la mise en œuvre efficace et au maintien en vigueur de tous les principes de protection des données tout au long du traitement.
  • « la nature », « la portée », le « contexte » et « les finalités du traitement », ainsi que le risque de probabilité et de gravité variables pour les droits et libertés des personnes physiques découlant du traitement.

La protection des données par défaut

Le responsable du traitement et ses sous-traitants doivent en outre garantir que, « par défaut, seules les données à caractère personnel qui sont nécessaires au regard de chaque finalité spécifique du traitement sont traitées » (RGPD art. 25, § 2).

Cela signifie que toute opération de traitement doit se limiter au strict nécessaire, ce qui s’applique « à la quantité de données à caractère personnel collectées, à l’étendue de leur traitement, à leur durée de conservation et à leur accessibilité » (RGPD, art. 25, § 2) qu’il s’agissent de personnes physiques ou d’organisations.

Par conséquent, les paramètres par défaut doivent être conçus dans l’esprit même de la protection des données.

Ces lignes directrices proposées par le CEDP visent à mieux appréhender l’application de ces principes. Elles donnent des indications générales sur leur mise en oeuvre effective illustrées d’exemples pratiques et de recommandations.

Les lignes directrices en ligne depuis le 20 novembre 2019, sont soumises à consultation publique jusqu’au 16 janvier 2020.

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications

(1) Voir A. Bensoussan, « Informatique et libertés », éditions Francis Lefebvre, 3e éd. à jour de la nouvelle loi Informatique et libertés, décembre 2019.




Lexing Alain Bensoussan Avocats présent à Voicetech Paris

Voicetech Paris écosystème vocalAlain Bensoussan évoque l’encadrement juridique de l’écosystème vocal. Voicetech Paris se tient les 26 et 27 novembre 2019 aux Salons de l’Aveyron (75012)

Voicetech Paris est le premier événement B2B dédié aux technologies vocales en France.

Deux jours pour découvrir les premiers cas d’usage en entreprise et comprendre les enjeux associés aux technologies vocales, au travers de 48H de conférences stratégiques de haut niveau et d’ateliers avec nos partenaires exposants et startups.

Plus de 700 participants et une cinquantaine de speakers seront présents lors des deux jours de conférence.

Réglementations et cadre légal de l’écosystème vocal

Mercredi 27 Novembre de 10h00 à 10h30

Point juridique de Me Alain Bensoussan,
Avocat en droit du numérique et des technologies avancées,
Lexing Alain Bensoussan Avocats.

ChatBots, VoiceBots, agents virtuels et conversationnels… On ne présente plus ces nouveaux outils qui reconfigurent les interactions.

Les agents conversationnels capables d’interagir avec les humains sont partout ; qu’ils soient intégrés sur des plateformes de messagerie instantanée ou via des enceintes connectées, ils facilitent les échanges pour une plus grande interactivité, un dialogue de plus en plus convivial, au service principalement de la relation client.

L’enjeu des technologies vocales pour les particuliers comme les entreprises est considérable. D’autant qu’une intelligence artificielle de plus en plus apprenante (deep learning), reposant sur des algorithmes sans cesse plus performants se nourrissant du big data, est en train de révolutionner le secteur, entraînant, ici comme ailleurs, un nécessaire encadrement juridique et éthique des algorithmes.

Programme

Eric Bonnet
Avocat
Directeur de la communication juridique




Les contrats cloud Microsoft rattrapés par le RGPD

contrats cloud MicrosoftDepuis l’application du RGPD, les acteurs du cloud sont contraints à la fois de repenser leurs outils et de revoir leurs contrats.

Le dernier exemple en date concerne Microsoft. Le Contrôleur européen s’alarme des conditions contractuelles signées par l’Union européenne. Microsoft s’engage à réagir promptement (1).

La position du Contrôleur européen sur les contrats cloud Microsoft

Dans un contexte marqué par des menaces toujours plus fortes d’accès par des États à la donnée numérique directement chez le prestataire cloud, en particulier le Cloud Act pour les États-Unis d’Amérique, le Contrôleur européen a lancé en avril 2019 un audit complet des contrats cloud signés par les institutions de l’Union européenne (2).

Même si les institutions européennes disposent de leur « propre RGPD », à savoir le règlement 2018/1725 du 11 décembre 2018, les principes et leur mise en œuvre sont en très grande partie les mêmes.

Le contrôleur Giovanni Buttarelli et le contrôleur adjoint Wojciech Wiewiórowsk ont donc mis en œuvre un audit pour s’assurer que les clauses applicables respectent la réglementation et que les droits des personnes soient effectifs.

Ces travaux ont été menés en coopération avec le ministre néerlandais de la justice qui, au même moment, s’était engagé dans la réalisation d’une étude d’impact sur le service bureautique phare de Microsoft, Office 365, hébergé dans le cloud « maison », Azure.

Le Contrôleur européen fait siennes toutes les réserves figurant dans cette analyse d’impact et, en particulier :

  • l’absence de transparence sur la circulation des données personnelles, notamment hors de l’Union européenne ;
  • l’impossibilité de « prendre le contrôle total » de ses données, notamment du fait de l’activation automatique d’outils de traçabilité des actions utilisateurs et de statistiques ;
  • la difficulté pour l’utilisateur à pouvoir faire valoir ses droits dans les interfaces actuellement disponibles.

Pour proposer plus concrètement des clauses types pouvant s’appliquer à toute administration publique, un forum dit de la Haye a été mis en place pour réunir les parties intéressées, utilisateurs et prestataires mais aussi toute partie concernée, à se joindre à ces travaux.

Dès 2012, l’Agence européenne de cybersécurité, l’Enisa avait déjà formulé ses recommandations sur la contractualisation des services dans le cloud (3). Avec les travaux du forum, il s’agit désormais d’aller bien au-delà des préconisations de l’Enisa, alors que le cadre réglementaire est de plus en plus précis et contraignant. Il est d’ailleurs possible de considérer, au moins pour la gestion des données personnelles, que le contrat cloud est désormais un contrat nommé (4).

Les contrats cloud de Microsoft revus par le RGPD

Microsoft a pris publiquement l’engagement formel de revoir ses contrats. La nouvelle version des Online Services Terms (OST) devrait intervenir pour début 2020 (5). A la lumière des critiques formulées par le contrôleur, outre les travaux du ministre néerlandais de la justice, les dispositions suivantes devraient être revues :

  • Une clause doit garantir la possibilité pour le responsable de traitement d’assurer leurs droits effectifs aux utilisateurs. Ces personnes concernées doivent ainsi disposer de toute information utile sur l’usage de leurs données et pouvoir directement exercer leurs droits dans les outils utilisés.
  • La clause d’audit sur site devrait être désormais présente au contrat selon des conditions à préciser. Elle était jusqu’alors refusée par Microsoft au prétexte que les certifications à diverses normes, dont la norme ISO 27001 complétée de la norme ISO 27018 sur l’hébergement de données personnelles, devaient suffire en soi.
  • On devrait aussi avoir des précisions sur la directive NIS et l’obligation de notifier les failles de sécurité affectant tout type de données et système auprès de l’Agence nationale de cybersécurité (l’ANSSI en France).
  • Enfin, dans la mesure où le Contrôleur européen et le CEPD ont déjà exprimé leur inquiétude sur le Cloud Act (6), il devrait être prévu que le prestataire, dès lors que cela peut être envisageable par cette loi, devrait s’engager à en contester la mise en œuvre auprès du juge compétent.

Si Microsoft a explicitement pris cette position après l’avis du Contrôleur européen, ces nouvelles mesures contractuelles ne devraient pas se limiter aux seules institutions européennes mais bien à tout client, responsable de traitement soumis au RGPD.

Il n’est pas précisé si ces nouvelles dispositions auront un effet rétroactif. En tout cas, tout contract manager devra veiller à ce que les contrats cloud Microsoft dont il dispose dans son organisation,seront bien soumis aux nouvelles OST plus favorables.

Eric Le Quellenec, Avocat
Lexing Informatique conseil

(1) Post du Contrôleur européen du 21 octobre 2019.
(2) Post du Contrôleur européen du 8 avril 2019.
(3) Guide achat cloud, Enisa, 2012.
(4) Eric Le Quellenec, Les contrats informatiques et la protection des données à caractère personnel : aspects pratiques, AJ contrat, Dalloz, octobre 2019, p.420.
(5) Post Microsoft du 18 novembre 2019.
(6) Lettre de couverture sur le Cloud Act du 10 juillet 2019.




La cybersécurité : un enjeu majeur réaffirmé pour l’Union européenne

La cybersécuritéFrédéric Forster évoque le nouveau règlement européen sur la cybersécurité dans sa dernière chronique publiée dans le magazine E.D.I.

Adopté le 17 avril 2019, le nouveau règlement européen sur la cybersécurité a pour ambition annoncée de renforcer drastiquement la protection face au cybercrime des utilisateurs des outils numériques qu’ils soient professionnels ou non.

L’objectif d’harmonisation et de coopération inter étatique par la mise en place d’échanges d’informations sur le risque cyber, prôné par le directive NIS (ou SRI en français), n’ayant pas été atteint, il est apparu nécessaire de passer par la voie d’un règlement européen d’application immédiate.

La cybersécurité à la une

Le règlement européen, entré en vigueur le 28 juin 2019, comporte deux volets principaux :

  • la mise en place d’une certification de la cybersécurité,
  • l’extension du rôle de l’ENISA,

qui se déclinent ensuite en six objectifs distincts que Frédéric Forster, Avocat, directeur du pôle Télécoms du cabinet Lexing Alain Bensoussan Avocats,  passe en revue.

Pour conclure que « les entreprises du numérique sont particulièrement concernées par les objectifs énoncés par le règlement européen, par la contribution qu’elles peuvent apporter à la construction d’un espace numérique plus sécurisé, autour du concept du « security by default », déjà connu en matière de protection des données à caractère personnel, mais appliqué ici de manière plus générale, et de la certification de leurs produits ou de leurs services ».

Frédéric Forster pour le magazine E.D.I, « La cybersécurité : un enjeu majeur réaffirmé pour l’Union européenne », n° 93 de novembre 2019.

Règlement (UE) 2019/881 du 17 avril 2019 relatif à l’ENISA (Agence de l’Union européenne pour la cybersécurité) et à la certification cybersécurité des technologies de l’information et des communications (règlement sur la cybersécurité).
Directive (UE) 2016/1148 du 6 juillet 2016 concernant des mesures destinées à assurer un niveau élevé commun de sécurité des réseaux et des systèmes d’information dans l’Union.




Reconnaissance faciale et liberté du consentement

Reconnaissance facialeAlain Bensoussan évoque pour Digital Mag les enjeux et le cadre juridique de la reconnaissance faciale.

Sous couvert de sécurité, la généralisation de la reconnaissance faciale dans l’espace public mais également professionnel, amène Alain Bensoussan à rappeler le cadre juridique applicable.

Cette technologie qui n’en est plus à ses balbutiements, pose notamment la question du consentement des personnes dont les données biométriques sont utilisées.

Reconnaissance faciale : quels enjeux pour quel cadre juridique ?

En France, les technologies de reconnaissance faciale sont encadrées par la loi Informatique et libertés.

Ces technologies appartiennent à la catégorie des systèmes biométriques qui, lorsqu’ils ne sont pas justifiés par l’intérêt public, ne peuvent être mis en oeuvre sans le consentement des personnes concernées.

La liberté du consentement suppose que la personne concernée dispose d’un choix réel et non contraint.

La Cnil rappelle que :

« Compte tenu de la sensibilité des traitements de données biométriques, la Commission estime que ceux mis en œuvre pour des raisons de commodité, c’est-à-dire en dehors de forts enjeux de sécurité, ne peuvent pas être imposés aux personnes concernées, y compris au titre de l’intérêt légitime du responsable du traitement. De tels dispositifs ne peuvent, dès lors, être mis en œuvre qu’avec le consentement des personnes concernées, entendu comme la manifestation de leur volonté libre, spécifique et éclairée » (Délib. 2018-012 du 18-1-2018).

Rappelons qu’au sein de l’Union européenne, l’utilisation de tels dispositifs faisant intervenir des données biométriques est encadrée par le règlement général sur la protection des données (RGPD).

En outre, signalons que la Commission européenne prépare un règlement qui autorisera les citoyens de l’Union européenne à contrôler l’utilisation de leurs données de reconnaissance faciale.

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications

Alain Bensoussan, Reconnaissance faciale : quels enjeux pour quel cadre juridique ?, paru dans Digital Mag, n°257, Octobre 2019.




Lexing Alain Bensoussan Avocats présent à Data Marketing Paris

Data Marketing ParisLe cabinet participe au salon Data Marketing Paris qui se déroule les 20 et 21 novembre prochains à l’Espace Champerret.

Data Marketing Paris revient les 20 & 21 Novembre 2019 pour une quatrième édition qui rassemblera de nouveau la filière marketing dite « data-driven » .

L’objectif de cet événement réunissant plus de 2 000 participants, 70 speakers et 40 exposants : proposer un panorama complet des opportunités, perspectives, technologies et de fédérer l’écosystème français autour des solutions data au service du pôle marketing.

A travers deux jours de conférences, ateliers, rendez-vous d’affaires, Data Marketing Paris 2019 offre une opportunité unique de s’informer et networker avec l’ensemble des acteurs du marché.

Data Marketing et protection des données

Dans le cadre de Data Marketing 2020, Anne Renard, avocate, Directrice du département Conformité & Certification du cabinet Lexing Alain Bensoussan Avocats, animera une masterclass le mercredi 20 novembre de 10h à 11h sur le thème : « Comment me mettre aux normes en termes de protection des données ? ».

Comment se mettre en conformité au regard du RGPD et du droit de la protection des données ? Comment recruter les meilleurs talents data pour mon service marketing ? Ces problématiques sont aujourd’hui indispensables pour piloter sa stratégie marketing.

Data Marketing Paris : Ask an expert

Dans le prolongement de cette Masterclass, le cabinet assurera une présence sur le salon, dans un format de permanence individualisée (problématiques : réglementation, mise aux normes).

https://datamarketingparis.com/

Espace Champerret
6 rue Jean Oestreicher
75017 Paris
20 & 21 Novembre 2019
8h30 – 18h30

Eric Bonnet
Avocat
Directeur de la communication juridique




La Cnil lance une plateforme Données & design RGPD

plateforme Données & designLe Laboratoire d’innovation de la Cnil lance la plateforme Données & Design faisant le lien entre design interactif et RGPD.

Design interactif, clé de voûte de l’interface réussie

A l’heure du tout numérique, le design apparaît plus que jamais centré sur l’utilisateur, examinant en détail son environnement, son mode de vie, ses habitudes, ses besoins et ses interactions avec les interfaces, les produits et les services qui lui sont offerts.

En effet, la réalisation d’une interface implique l’imbrication d’une conception technique consistant à créer une chaîne de fonctionnalités d’actions et de réactions et d’une conception du design visant à guider l’utilisateur dans l’utilisation de l’interface par la mise en place de parcours et de représentations graphiques aisément compréhensibles.

C’est ainsi que se sont développés, différents métiers du design interactifs :

  • le design d’interface (user interface design ou UI) visant à faciliter l’utilisation du service, de l’application ou de la machine par la création d’une interface visuellement cohérente et compréhensible ;
  • le design d’interactions (interaction design ou IxD), ayant pour objectif de déterminer la réaction du système dans le dialogue avec l’utilisateur ;
  • plus récemment, le design d’expérience utilisateur (UX design) visant à améliorer et optimiser l’expérience utilisateur en centrant la conception de l’interface sur l’expérience client.

Il s’agit là de la transposition au monde numérique de l’optimisation du parcours client bien connue du monde de la grande distribution dont les magasins Ikea sont l’illustration typique.

Design interactif, instrument d’optimisation de la collecte de données personnelles

Appliqué au monde numérique, le design interactif constitue également un moyen particulièrement performant de collecte des données utilisateurs par la mise en place de méthodes destinées à influencer le comportement de ce dernier.

Dans ce cadre, le Laboratoire d’innovation de la Commission nationale de l’informatique et des libertés (LINC) a identifié, dans son 6e cahier Innovation et prospective intitulé « La Forme des choix – Données personnelles, design et frictions désirables » (1) paru en janvier 2019, quatre catégories de pratiques de design interactif visant à optimiser la collecte de données personnelles potentiellement trompeuses.

Sont ainsi visées les pratiques consistant à « pousser l’individu à accepter de partager plus que ce qui est strictement nécessaire ». Parmi les exemples les plus topiques, se trouve la pratique consistant à solliciter la collecte de données additionnelles à celles strictement nécessaires au service lors d’une étape où l’utilisateur est engagé dans un processus de commande par exemple.

Le LINC donne ici l’exemple consistant à requérir un numéro de téléphone, pour permettre la livraison du bien commandé, qui sera in fine utilisé à des fins de prospection commerciale.

Une deuxième catégorie de pratiques ainsi identifiée consiste à influencer le consentement de l’utilisateur par la mise en œuvre de techniques peu claires ou ambiguës : recueil du consentement par l’utilisation de phrases complexes avec une double négation par exemple ou encore utilisation d’un code graphique dans un sens opposé à celui sous lequel il est généralement perçu : reproduction d’un cadenas dans un environnement non sécurisé, d’un code rouge pour une acception et vert pour un refus.

Une troisième catégorie de technique de design interactif réside dans la mise en place de « frictions aux actions de protection des données » : sous couvert de respecter la règlementation applicable, l’exercice des droits de l’utilisateur fait obstacle à l’utilisation de l’interface ou alors est rendue particulièrement complexe pour pousser l’utilisateur à l’abandon (complexification du réglage des paramètres de confidentialité par exemple).

La dernière catégorie de pratiques ainsi relevées vise celles consistant à « dérouter l’utilisateur » par exemple par le fait de donner à une action un sens contraire à celle attendue ou encore de masquer le caractère publicitaire d’un contenu.

Design interactif et RGPD : des exigences inconciliables ?

Si ces pratiques ne sont pas toutes sanctionnables, elles conduisent à s’interroger sur la compatibilité entre le but poursuivi par le design interactif et le respect des règles de transparence et de manifestation du consentement de l’utilisateur posées par le RGPD.

Ainsi, l’article 5 du RGPD pose le principe selon lequel les données à caractère personnel doivent être traitées de manière licite, loyale et transparente au regard de la personne concernée.

L’article 4 définit par ailleurs la notion de « consentement de la personne concernée » comme une « manifestation de volonté, libre, spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair, que des données à caractère personnel la concernant fassent l’objet d’un traitement ».

A cet égard, le G29 est venu préciser que, pour déterminer si le consentement était donné librement, il y avait lieu de tenir compte de « toute pression ou influence inappropriée exercée sur la personne concernée (pouvant se manifester de différentes façons) [l’]empêchant [l’utilisateur] d’exercer sa volonté rendra le consentement non valable » (2).

Dès lors, le design interactif abusif ou trompeur apparait susceptible de remettre en cause la validité du consentement donné, et partant, la validité du traitement fondé sur ce consentement lorsqu’aucune autre base légale n’est susceptible d’être valablement invoquée.

Design interactif et RGPD : lancement d’une plateforme dédiée

Face à ce constat, le LINC a récemment lancé la plateforme Données & Design, destinée aux « designers soucieux d’intégrer au mieux la protection des données et des libertés dans leurs interfaces, services et produits » (3).

Cette plateforme qui vise à « créer des opportunités de collaboration et des espaces d’échange entre les designers pour coconstruire des parcours respectueux de la vie privée », s’articule autour de trois axes :

  • la présentation des fondamentaux et concepts clés de la réglementation relative à la protection des données personnelles se prêtant particulièrement au design interactif : information des utilisateurs, consentement, exercice des droits ;
  • la présentation d’exemples et de cas d’étude servant d’inspiration pour créer des interfaces et parcours respectueux des données personnelles des utilisateurs, et la fourniture de ressources permettant d’approfondir les questions de protection des données à caractère personnel ;
  • la possibilité pour les designers d’accéder à un espace d’échanges sur la plateforme Slack afin de discuter avec leurs pairs des problématiques rencontrées en matière de protection des données à caractère personnel, et de participer à divers ateliers de réflexion sur ce sujet.

Cette plateforme s’adresse en premier lieu aux designers, chefs de projets et développeurs, mais également aux délégués à la protection des données et juristes intervenant dans le secteur du design interactif.

Gageons que ce nouvel outil permettra aux designers, et plus largement à l’ensemble des acteurs intervenant dans le secteur du design interactif, d’adopter des pratiques vertueuses pour le respect de la vie privée des utilisateurs, et à ces derniers de mieux maîtriser leurs données personnelles.

Virginie Brunot
Justine Ribaucourt
Lexing Droit Propriété industrielle

(1) Laboratoire d’Innovation de la Commission Nationale de l’Informatique et des Libertés (LINC), Innovation et prospective intitulé « La Forme des choix – Données personnelles, design et frictions désirables », janvier 2019,
(2) Groupe de travail « Article 29 » – Lignes directrices sur le consentement au sens du règlement 2016/679 adoptées le 28 novembre 2017,
(3) Plateforme Données & Design.




Obligations en matière d’analyse d’impact pour les mairies

analyse d’impact pour les mairiesLe RGPD (1) impose un certain nombre d’obligations pour les collectivités territoriales (2). Il existe notamment des obligations en matière d’analyse d’impact pour les mairies.

Le règlement prévoit ainsi la réalisation d’analyses d’impact relatives à la protection des données pour les traitements susceptibles d’engendrer un risque élevé pour les droits et les libertés des personnes.

Compte tenu des traitements particulièrement sensibles que sont susceptibles de mettre en œuvre les mairies, ces dernières sont directement concernées par cette application.

Comment déterminer si une analyse d’impact doit être réalisée ?

L’article 35 du RGPD précise tout d’abord qu’une analyse d’impact est, en particulier, requise dans les cas suivants :

  • l’évaluation systématique et approfondie d’aspects personnels concernant des personnes physiques, qui est fondée sur un traitement automatisé, y compris le profilage, et sur la base de laquelle sont prises des décisions produisant des effets juridiques à l’égard d’une personne physique ou l’affectant de manière significative de façon similaire;
  • le traitement à grande échelle de catégories particulières de données, ou de données à caractère personnel relatives à des condamnations pénales et à des infractions ; ou
  • la surveillance systématique à grande échelle d’une zone accessible au public.

En complément, la Cnil a publié une liste des traitements pour lesquels une analyse d’impact est requise (3).

Conformément à cette liste, une analyse d’impact pour les mairies s’impose notamment s’agissant :

  • des traitements ayant pour finalité la gestion des alertes et des signalements en matière sociale et sanitaire ;
  • des traitements ayant pour finalité l’accompagnement social ou médico-social des personnes ;
  • l’instruction des demandes et gestion des logements sociaux ;
  • des traitements ayant pour finalité la gestion des alertes et des signalements en matière professionnelle.

Certains traitements mis en œuvre par les Centres communaux d’action sociale (CCAS) et les centres municipaux de santé, tels que les traitements de données de santé pour la prise en charge des personnes, sont également concernés.

Une analyse d’impact est également requise si le traitement remplit au moins deux des neuf critères issus des lignes directrices du G29 (4) suivants :

  • évaluation/scoring (y compris le profilage) ;
  • décision automatique avec effet légal ou similaire ;
  • surveillance systématique ;
  • collecte de données sensibles ou données à caractère hautement personnel ;
  • collecte de données personnelles à large échelle ;
  • croisement de données ;
  • personnes vulnérables (patients, personnes âgées, enfants, etc.) ;
  • usage innovant (utilisation d’une nouvelle technologie) ;
  • exclusion du bénéfice d’un droit/contrat.

Publication de la liste des traitements pour lesquelles une analyse d’impact pour les mairies n’est pas requise

Le 22 octobre 2019, la Cnil a publié la liste des types d’opérations de traitement exonérés d’analyse d’impact (5).

Aucune analyse d’impact pour les mairies n’est ainsi requise pour :

  • les traitements mis en œuvre dans les conditions prévues par les textes relatifs à la gestion du fichier électoral des communes ;
  • les traitements, mis en œuvre uniquement à des fins de ressources humaines et dans les conditions prévues par les textes applicables, pour la seule gestion du personnel des organismes qui emploient moins de 250 personnes, à l’exception du recours au profilage ;
  • les traitements mis en œuvre par les collectivités territoriales aux fins de gérer les services en matière d’affaires scolaires, périscolaires et de la petite enfance.

Cette dernière exonération s’applique aux traitements relatifs à :

  • la préinscription, l’inscription, le suivi et la facturation des services en matière d’affaires scolaires, périscolaires, extrascolaires et de petite enfance (la scolarisation en école maternelle et élémentaire) ;
  • le recensement des enfants soumis à l’obligation scolaire ;
  • la restauration scolaire et extrascolaire ;
  • les transports scolaires ;
  • les accueils et activités périscolaires et extrascolaires, les accueils collectifs de mineurs ;
  • la participation à l’organisation matérielle et financière des sorties scolaires, les séjours scolaires courts et classes de découverte dans le premier degré ;
  • l’accueil de la petite enfance au sein des établissements et services d’accueil des enfants de moins de six ans.

En tout état de cause, en cas de doute quant à la nécessité de réaliser une analyse d’impact pour les mairies, il est recommandé d’en effectuer une.

En effet, une analyse d’impact permet non seulement de mettre en œuvre des traitements de données respectueux de la vie privée, mais également faire preuve de la bonne conformité des mairies au RGPD.

Une analyse d’impact peut concerner un seul traitement ou un ensemble de traitements similaires.

La Cnil a, en outre, pu préciser à titre d’exemple que des collectivités qui mettent chacune en place un système de vidéosurveillance similaire pourraient effectuer une seule analyse qui porterait sur ce système bien que celui-ci soit ultérieurement mis en œuvre par des responsables de traitements distincts (6).

En outre, le montant des amendes pouvant s’élever jusqu’à 10 000 000 euros en cas de manquements aux dispositions relatives aux analyses d’impact, une vigilance particulière doit être apportée.

Anne Renard
Marine Hannequart
Lexing Conformite et certification

(1) Règlement (UE) 2016/679 du parlement européen et du conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données ou « RGPD »),
(2) Post précédent : « RGPD dans les mairies : quels impacts ? », du 14-10-2019 ,
(3) Cnil, Délibération n° 2018-327 portant adoption de la liste des types d’opérations de traitement pour lesquelles une analyse d’impact relative à la protection des données est requise, du 11-10-2018,
(4) Groupe de travail « article 29» sur la protection des données, Lignes directrices concernant l’analyse d’impact relative à la protection des données (AIPD) et la manière de déterminer si le traitement est « susceptible d’engendrer un risque élevé » aux fins du règlement (UE) 2016/679, 4-04-2017,
(5) Cnil, Délibération n° 2019-118 portant adoption de la liste des types d’opérations de traitement pour lesquelles une analyse d’impact relative à la protection des données n’est pas requise, 12-09- 2019,
(6) Cnil, « Ce qu’il faut savoir sur l’analyse d’impact relative à la protection des données (AIPD) », 22-10-2019.




Le référentiel Cnil de gestion des vigilances sanitaires

gestion des vigilances sanitairesLes traitements de gestion des vigilances sanitaires peuvent être mis en oeuvre après une déclaration de conformité à la Cnil.

Ce régime est issu du référentiel de gestion des vigilances sanitaires élaboré par la Cnil pour encadrer leur traitement conformément aux principes du RGPD (délibération du 9 mai 2019) .

Contexte applicable aux référentiels publiés par le Cnil

Certains traitements de données de santé à caractère personnel visés à l’article 65 de la loi Informatique et libertés sont régis par des dispositions spécifiques.

Il s’agit notamment, sauf exceptions visées au même article, des traitements de données de santé à caractère personnel nécessaires :

  • pour des motifs d’intérêt public important (RGPD, art. 9, 2) g) ;
  • pour ces mêmes motifs dans le domaine de la santé (RGPD, art. 9, 2) i) ;
  • à des fins de recherche scientifique ou historique ou à des fins statistiques (RGPD, art. 9, 2) j) ;
  • aux fins de l’exécution des obligations et de l’exercice des droits propres au responsable de traitement ou à la personne concernée en matière de droit du travail, de la sécurité sociale et de la protection sociale (RGPD, art. 9, 2) b).

Ces traitements ne peuvent être mis en œuvre que s’ils sont conformes à des référentiels. Le responsable du traitement doit adresser préalablement à la Cnil une déclaration attestant de cette conformité.

A défaut de se conformer à ces référentiels, ces traitements ne peuvent être mis en œuvre qu’après autorisation de la Cnil.

C’est donc dans ce cadre que s’inscrit le présent référentiel, accompagné de sa FAQ publiée par la Cnil.

Distinction avec les autres référentiels visés par la loi Informatique et libertés

Bien que la terminologie soit identique, la notion de référentiel, selon la loi de 78, apparaît polyforme et comprend :

  • des référentiels visés à l’article 8 de la loi Informatique et libertés. Ils sont établis et publiés par la Cnil pour faciliter la mise en conformité des traitements de données à la loi. Ils permettent aux responsables de traitement et sous-traitants d’évaluer les éventuels risques ;
  • des référentiels de certification de personnes, de produits, de systèmes de données et de procédures. Le but est de reconnaître leur conformité au RGPD et à la loi Informatique et libertés. Il existe aussi des référentiels d’agrément des organismes certificateurs (Loi IetL, art. 8) ;
  • ceux comme le présent référentiel auquel il convient de se conformer en application du contexte susvisé.

Champ d’application du référentiel de gestion des vigilances sanitaires

Tout d’abord, ce référentiel concerne :

  • les traitements de données de santé à caractère personnel liés à l’ensemble des vigilances sanitaires. Par exemple, pharmacovigilance, addictovigilance, biovigilance, cosmétovigilance, hémovigilance ; mais aussi toute autre vigilance figurant dans l’arrêté du 27 février 2017 qui nécessite une déclaration ou un signalement.  Il peut s’effectuer au moyen du portail de signalement des événements sanitaires indésirables ;
  • mis en œuvre par les acteurs suivants : fabricants, entreprises, exploitants, organismes responsables de la mise sur le marché d’un médicament, d’un dispositif ou d’un produit.

« Les professionnels et les systèmes ou services de soins de santé (établissement de santé, maisons de santé, centres de santé, agences sanitaires, etc.) ne sont pas concernés » par ce référentiel. En effet, ils ne sont pas concernés par les dispositions des articles 65 et suivants de la loi de 78 et ne requièrent, en principe, aucune formalité préalable (Cnil, FAQ, Le référentiel « vigilances sanitaires » en questions, 18 juillet 2019).

Traitements concernés par le référentiel de gestion des vigilances sanitaires

Ensuite, le référentiel énonce les finalités des traitements de gestion des vigilances sanitaires et leurs bases légales :

  • le traitement est nécessaire au respect des obligations légales imposées par les dispositifs de vigilance sanitaire (RGPD, art. 6, 1) c)) ;
  • le traitement est nécessaire pour des motifs d’intérêt public (RGPD, art. 9, 2) i)).

Les données personnelles concernées par le traitement, les destinataires et les durées de conservation des données sont aussi précisées.

Cela signifie que le responsable du traitement ne peut en bénéficier dans les hypothèses où :

  • un traitement aux fins de vigilance sanitaire comporte d’autres données que celles listées,
  • les données sont transmises à d’autres destinataires ou
  • des durées de conservation non conformes au référentiel sont prévues,

En pareils cas, il ne peut donc les mettre en œuvre qu’après autorisation de la Cnil.

Information des personnes concernées

Les personnes concernées doivent être informées dès la collecte des données des modalités de leur traitement (RGPD, art. 13 et 14).

Il s’agit des :

  • personnes exposées à l’événement sanitaire indésirable,
  • personnes ayant notifié l’événement sanitaire indésirable et
  • professionnels de santé ayant suivi la personne concernée par l’événement

Surtout, le référentiel relatif à la gestion des vigilances sanitaires précise :

  • qu’en cas de notification de l’événement sanitaire indésirable par la personne qui y est exposée, une information particulière doit lui être fournie préalablement, afin de l’informer que le secret de son identité ne sera pas préservé ;
  • que l’information doit également préciser la manière d’exercer les droits des personnes concernées.

Le support de l’information est libre et l’information peut être fournie par écrit ou à l’oral. Dans cette dernière hypothèse, la personne concernée peut obtenir la mise à disposition d’un support écrit.

Lorsque la notification de l’évènement est réalisée par une personne différente de celle exposée, l’information est fournie par le notificateur sur la base des éléments d’information écrits que lui a remis par le responsable de traitement.

A ce titre, il appartient au responsable du traitement de recueillir la preuve, le cas échéant auprès du notificateur, que l’information a été fournie.

Droits des personnes concernées

Au regard de la base juridique du traitement (respect d’une obligation légale), les personnes concernées ne disposent pas du droit :

  • d’opposition,
  • d’effacement des données,
  • à la portabilité des données.

Ainsi, les personnes concernées disposent des droits suivants :

Sécurité et hébergement des données

Le référentiel relatif à la gestion des vigilances sanitaires prévoit une liste de mesures de sécurité à mettre en œuvre par le responsable du traitement.

A défaut, il doit être en mesure de justifier de mesures équivalentes ou du fait de ne pas avoir besoin ou de ne pas pouvoir y recourir.

Le responsable peut recourir à un prestataire extérieur pour le stockage et la conservation des données de santé. Ce dernier doit être agréé ou certifié hébergeur de données de santé.

Dans l’hypothèse où le responsable du traitement n’est pas établi en France, il doit démontrer que son prestataire présente des garanties de sécurité équivalentes.

A défaut, le responsable du traitement ne peut pas bénéficier du présent référentiel et le traitement doit donc faire l’objet d’une autorisation préalable de la Cnil.

Transfert de données hors de l’Union européenne

De même, seules certaines données peuvent faire l’objet d’un transfert hors de l’Union européenne. Il s’agit des données indirectement identifiantes des personnes exposées à un événement sanitaire indésirable ; ou encore des données indirectement identifiantes des personnes ayant notifié l’événement.

Ce transfert doit être strictement nécessaire à la mise en œuvre du dispositif de vigilance et être réalisé dans les conditions prévues aux articles 45 et suivants du RGPD.

Pour bénéficier des exceptions prévues à l’article 49 du RGPD (dérogations pour des situations particulières), le traitement ne doit être ni répétitif, ni massif, ni structuré.

Analyse d’impact

Enfin, pour bénéficier du référentiel relatif à la gestion des vigilances sanitaires, le responsable de traitement doit réaliser une analyse d’impact sur la vie privée.

La consultation de la Cnil s’impose si, à l’issue de l’analyse d’impact, il est difficile d’identifier des mesures suffisantes pour réduire les risques à un niveau acceptable.

Marguerite Brac de la Perrière
Chloé Gaveau
Lexing Santé numérique




Le cabinet conseil d’HAROPA-Port du Havre sur un partenariat avec Airbus

HAROPA – Port du Havre

Le cabinet a conseillé HAROPA-Port du Havre dans le cadre d’un accord portant sur la sécurité et la fluidité du passage de la marchandise.

Le 25 octobre 2019, HAROPA-Port du Havre et Airbus ont annoncé la signature d’un partenariat industriel visant à répondre aux nouveaux enjeux auxquels les ports sont aujourd’hui confrontés, ainsi qu’à leurs besoins en matière de services numériques.

Comme l’explique le communiqué de presse conjoint d’HAROPA-Port du Havre et d’Airbus en date du même jour, « la sécurité et la fluidité du passage de la marchandise sont devenus stratégiques pour le développement des ports ». Un enjeu qui « exige une amélioration continue permettant de trouver les solutions digitales pour simplifier les démarches électroniques, faciliter le développement du commerce international et sécuriser les applications » (v. également le communiqué de presse d’Airbus).

C’est dans ce contexte et pour accélérer son développement qu’HAROPA-Port du Havre a souhaité s’inscrire dans une logique de partenariat industriel avec Airbus.

Dans ce cadre, les deux partenaires ont conclu le 25 octobre 2019 un accord de distribution portant sur une solution commune logicielle de leurs systèmes respectifs STYRIS (Radar-VTS) et S-WiNG (service numérique de gestion portuaire).

L’objectif : offrir une solution performante et avancée capable d’assurer une meilleure surveillance de la navigation et une meilleure optimisation des opérations portuaires et d’escale.

Cet accord de distribution permet désormais à Airbus d’exporter ce savoir-faire dans d’autres ports à l’international et de faire rayonner les solutions d’HAROPA.

L’équipe de Lexing Alain Bensoussan Avocats qui a conseillé HAROPA-Port du Havre dans le cadre de la signature de cet accord, était pilotée par Jean-François Forgeron, directeur du Pôle Informatique et Droit.

Eric Bonnet
Avocat
Directeur de la communication juridique

Crédit photo
HAROPA – Port du Havre




Droit des technologies robotiques et de l’IA

technologies robotiques Jérémy Bensoussan anime une formation sur le droit des technologies robotiques et de l’IA le 10 décembre 2020 pour Lamy Formation (Wolters Kluwer).

Avocat au barreau de Paris et ingénieur diplômé de l’ESTP Paris et du Ceipi (DU Brevet), directeur du département Droit des technologies robotiques de Lexing Alain Bensoussan Avocats,  Jérémy Bensoussan, animera la session sur le Droit des technologies robotiques et de l’IA, intelligence artificielle, dont les grandes lignes sont :

Technologies robotiques, les frontières des révolutions annoncées

  • État des lieux technique et convergence scientifique
  • Focus sur la stratégie française en matière de robotique et d’intelligence artificielle
  • La voix des entreprises : automatisation et transformation intelligente

Les risques juridiques en matière de responsabilité et de conformité et de sécurité

  • La robotique en entreprise : les équipements de travail et les machines
  • La robotique auprès des consommateurs : les produits défectueux
  • La protection des données à caractère personnel : la prise en compte des règles européennes issues du Règlement général sur la protection des données

La propriété intellectuelle à l’épreuve des systèmes robotiques et d’IA

  • Identifier les différents instruments juridiques de protection du robot
  • Quid des créations collaboratives homme-machine ?
  • Statut d’auteur et critère d’oeuvre de l’esprit : quelle articulation avec les productions d’intelligence artificielle ?

Les tendances réglementaires

  • Rapport Delvaux : état du processus de normalisation européen
  • Le recours au droit souple et la place de l’autorégulation
  • L’évolution du droit de la responsabilité à raison de l’autonomie décisionnel du robot
  • Vers un statut spécifique des systèmes robotisés dotés d’intelligence artificielle : avantages et limites
  • Étude de cas : Constituer ou auditer la protection du robot par la Propriété intellectuelle.

Télécharger la fiche thématique : Droit des technologies robotiques et de l’IA

Pour la formation « Droit des technologies robotiques et de l’IA », s’inscrire auprès des éditions Wolter Kluwer

 




Usurpation d’identité, identification et authentification numérique

identification et authentification numériqueUsurpations d’identité, identification et authentification numérique : quels enjeux et quelles solutions ?

Alain Bensoussan(Lexing Alain Bensoussan Avocats) et Philippe Morel (Woobe) interviendront lors du petit-déjeuner débat du vendredi 7 février 2020.

Aujourd’hui, cybersécurité oblige, la confidentialité et la sécurité des données sont au centre des débats.

Dans ce domaine, la reconnaissance faciale, qui peut être définie comme « le traitement automatique d’images numériques qui contiennent le visage de personnes à des fins d’identification, d’authentification/de vérification ou de catégorisation de ces personnes » (définition du CEPD) , cristallise toutes les attentions.

Identification et authentification numérique : Quelles solutions ?

Cette technologie, qui n’en était qu’à ses débuts il y a quelques années à peine, a fait depuis l’objet de progrès spectaculaires.

De toute évidence, les perspectives qu’elle ouvre sont vertigineuses, et plus seulement dans le domaine de la sécurité publique, première terre d’élection de la reconnaissance faciale permettant de reconnaître un visage dans une foule.

Pour autant, la reconnaissance faciale qui se fait par « matching » d’un jpeg dans une base de données, n’est pas un outil destiné à créer une identité, au sens juridique du terme, mais une reconnaissance d’un individu sur des critères physiques et esthétiques.

En outre, les critères faciaux ne sont pas définitifs, uniques et permanents, de sorte qu’ils se situent en dehors du champ d’application des caractéristiques susceptibles d’être reçues en justice comme moyen de preuve.

De surcroît, cette technologie reste fragile.

Quels sont les obstacles juridiques ?

Enfin et surtout, la reconnaissance faciale comme moyen d’identification légal se heurte en l’état actuel à deux obstacles dirimants :

  • le recours à un fichier central des données, d’une part ;
  • la disproportionnalité des traitements, d’autre part.

A l’heure où nombreuses sont les voix qui s’élèvent pour appeler à restreindre l’utilisation croissante de la reconnaissance faciale par les acteurs économiques et les autorités, et où d’autres solutions voient le jour (ex. : identité universelle et irrévocable supranationale et opposable aux tiers), le cabinet Lexing Alain Bensoussan Avocats vous convie à un petit-déjeuner débat autour des enjeux juridiques et éthiques dans ce domaine.

Seront notamment évoqués à cette occasion par Alain Bensoussan :

  • Les contours de l’encadrement juridique en gestation en la matière
  • Les solutions alternatives à la reconnaissance faciale et leur conformité juridique

Par ailleurs, Philippe Morel, ancien juge consulaire, président-fondateur de la plateforme Woobe, présentera à cette occasion une solution garantissant la confidentialité et la valeur juridique des échanges numériques en identifiant de manière irrévocable les auteurs des contenus, les expéditeurs, les destinataires et tous les tiers autorisés à chaque étape critique, grâce à la vérification dynamique des empreintes digitales, dans lequel le consentement de l’utilisateur est intégré dans le processus.

 

Le petit-déjeuner débat a lieu le  7 février 2020 de 9h30 à 11h30 (accueil à partir de 9h00) dans nos locaux, 58 Gouvion-Saint-Cyr, 75017 Paris.