Ethique et IA : Jérémy Bensoussan invité du GPMSE

GPMSEJérémy Bensoussan participe à la nouvelle émission d’Agora News Sécurité autour du think tank mis en place par le GPMSE sur le thème de l’IA.

La nouvelle émission « débats » de la chaîne Agora News Sécurité en ligne depuis quelques jours est consacrée aux aux travaux du Groupement professionnel des métiers de la sécurité électronique (GPMSE) autour des enjeux éthiques de l’IA.

L’intelligence artificielle et le Machine Learning sont utilisés de manière exponentielle, dans de nombreux domaines, dont celui de la sécurité.

Face à de nouvelles menaces, prévenir les risques, anticiper les process et permettre à l’humain de gérer de manière toujours plus efficiente ces dangers sont devenus essentiels.

En outre, la crise du Covid-19 nous démontre les opportunités qu’offrent l’intelligence artificielle.

Jérémy Bensoussan

Néanmoins, face aux immenses avantages de ces nouvelles technologies, il est indispensable d’en considérer les enjeux éthiques et sociétaux.

C’est la raison pour laquelle Luc Jouve, Président du GPMSE Installation, a souhaité initier un Think-Tank sur ces enjeux, dès le mois de septembre 2019. Celui-ci réunit des adhérents du GPMSE, de nombreux membres de l’Agora des Directeurs Sécurité-sûreté, des représentants de ministères, des experts, des chercheurs Le GPMSE a souhaité associer à ses travaux le cabinet Lexing Alain Bensoussan Avocats, ainsi que des fédérations professionnelles belges et espagnoles, partenaires du GPMSE, l’enjeu étant européen.

L’objectif : pouvoir adresser des propositions aux pouvoirs publics.

Quatre émissions ont été programmées, avec Agora News Sécurité, pour relater les avancées des travaux du Think Tank. La première émission porte sur l’éthique.

Y participent :

L’occasion pour Jérémy Bensoussan d’évoquer les contours de l’encadrement juridique de l’intelligence artificielle qui se met actuellement en place. A ses yeux, la régulation d’IA se construit sur la base de compromis.

L’enjeu : trouver des points d’équilibre entre différents points de tension.

A titre d’exemple, « plus une solution algorithmique est efficace, moins on est capable de l’expliquer, de sorte qu’il existe un premier point de tension entre d’une part, la performance et la réduction des risques, et d’autre part le besoin de comprendre l’intelligibilité de la solution que la technique d’intelligence artificielle produit« . Autre exemple: « De nombreuses solutions d’IA sont basées sur de la données, en tous cas pour tout ce qui concerne l’IA algorithmique et probabiliste. Or, très souvent il s’agit de données à caractère personnel. De là naît un nouveau point de tension entre d’une part, les avancées en matière d’IA, et d’autre part, un cadre réglementaire européen et national très strict en matière de protection des données à caractère personnel« .

Où trouver des points d’équilibre ? « L’éthique est justement là pour nous y aider, car elle permet de préconfigurer une solution et de faire ressortir un consensus entre différents acteurs régaliens, institutionnels et privés« . L’éthique c’est, souligne Jérémy Bensoussan « du droit souple, qui n’entraîne pas de contrainte juridique absolue et qui ne peut pas être sanctionnée directement, mais qui permet de peser sur les comportements. De ce point de vue, quand un régulateur prend des positions éthiques, on a plutôt intérêt à les suivre. De la même façon, quand des fédérations professionnelles prennent de telles positions, elles peuvent susciter un élan permettant d’aider à trouver des points équilibre« .

Éric Bonnet
Avocat, Lexing Alain Bensoussan Avocats
Directeur de la Communication juridique

https://www.agoranews-securite.fr/think-tank-intelligence-artificielle-lethique/




Les données, l’élément central et malmené du TensorFlow

Les données, l’élément central et malmené du TensorFlow

Plus d’un an après le reversement du système TensorFlow en open source, la stratégie de Google interroge.

Le reversement en open source du TensorFlow

Google vient de publier la version finale de l’élément phare de son programme d’intelligence artificielle, le TensorFlow, que l’entreprise avait déjà mis gratuitement à disposition en novembre 2015 (1) . Cette technologie cruciale pour le géant de Palo Alto, est utilisée pour analyser et classer les images, pour assurer la reconnaissance vocale sur Android, ou encore pour trier les spams et envoyer des réponses automatiques via « Smart reply » sur Gmail.

En agissant de la sorte, Google a souhaité donner la possibilité à tout développeur d’enrichir librement son système et a ainsi ajouté TensorFlow à la liste des technologies machine et deep learning en open source et comprenant déjà Torch, Caffe ou Theano (2). Cette stratégie de partage à des fins d’amélioration collective n’est pas si singulière et a été partiellement suivie par Microsoft et son programme CNTK (3), ainsi que par Facebook qui a diffusé certains modules de deep learning pour Torch (4).

Aussi salutaire et bienvenue que puisse être qualifiée cette politique, elle ne doit toutefois pas être perçue comme l’avènement tant attendu du logiciel libre et du partage universel des connaissances. L’intérêt de ces entreprises est le perfectionnement gratuit et inconditionné de son système deep learning. Jouissant d’une très grande renommée auprès de l’ensemble des développeurs, le TensorFlow attire indéniablement la curiosité des plus aguerris. En prêtant attention à toutes les pistes et travaux de la communauté open source, Google peut ainsi faire profiter ses propres services et produits des différentes avancées constatées.

Google, bénéficiaire principal des progrès du TensorFlow

La raison pour laquelle Google sera le premier bénéficiaire des progrès du TensorFlow est que la valeur d’un système machine learning est avant tout fonction de la quantité de données collectées (5). En effet, puisqu’un programme de machine learning fonctionne en dotant un exemple du résultat attendu, à partir de la connaissance préalable des résultats associés aux exemples similaires, ce programme nécessite impérativement de disposer, en amont, d’une large base de données. Plus cette base de données sera importante, plus justes et étendues seront les prédictions du système learning.

Ainsi et concernant cette branche de l’intelligence artificielle, tout l’enjeu réside dans la collecte d’informations. Une entreprise aura beau avoir apporté à un algorithme machine learning toute une série d’améliorations remarquables, sans détention de données, le machine learning ne lui sera strictement d’aucune utilité. A l’opposé, Google, via notamment Google Maps, Gmail, Android et Youtube, collecte une quantité gigantesque de données, capables d’alimenter en des proportions infinies ses programmes machine et deep learning, et peut aisément se positionner comme leader sur le marché.

Le risque d’entorses à la réglementation Informatique et libertés par les machine learning

Le traitement de données constitue le cœur de la problématique machine learning et son développement tous azimuts soulève ainsi de nombreuses questions Informatique et libertés intéressant tant les principes du consentement (6) (7), celui du respect de la finalité du traitement, de la collecte loyale et licite des données (8) que celui relatif à l’interconnexion (9).

En machine learning, le programme traite les données de façon autonome et ce dernier ne se préoccupe naturellement pas de savoir si les données disponibles et utilisées sont issues d’une personne qui a préalablement donné son accord à un traitement par un programme d’intelligence artificielle. Les notions d’autonomie et d’apprentissage, inhérentes au fonctionnement du machine learning, apparaissent de facto contradictoires avec l’exigence pourtant essentielle du consentement de la personne concernée au traitement de ses données.

Par ailleurs, une difficulté supplémentaire découle du principe selon lequel le machine learning a pour essence d’établir des prédictions, et plus spécifiquement d’obtenir une information inconnue à partir de données connues (10). Selon les déductions opérées par le machine learning, un organisme privé comme public peut se procurer des informations sur un individu dans un domaine complètement étranger au domaine des données initialement collectées et acquerra une donnée dont la collecte n’a a fortiori pas été consentie ou en contradiction avec la finalité ayant justifié le traitement originaire.

De surcroît, les informations que le machine learning finira par détenir au travers de ses algorithmes prédictifs, pourront être des données dites sensibles dont le traitement est interdit (11). Un machine learning serait en effet aisément capable de recueillir des données relatives à la santé ou encore aux opinions politiques à partir de données plus anodines et déjà à disposition de l’entreprise. Par conséquent et outre les problèmes ci-dessus évoqués, les machine learning mettent très fréquemment en œuvre des interconnexions de fichiers aux finalités différentes et les traitements qu’ils opèrent sont donc à ce titre soumis à l’autorisation préalable de la Cnil (10).

Il convient donc, pour toute entreprise souhaitant développer un système machine learning, de veiller à respecter la protection des données personnelles.

Lexing Alain Bensoussan Selas
Lexing Informatique et libertés

(1) www.nextinpact.com, Article de Vincent Hermann du 19-2-2017
(2) www.lemonde.fr, Article de Morgane Tual du 10-11-2015
(3) www.numerama.com, Article de Julien Lausson du 27-1-2016
(4) www.clubic.com, Article de Guillaume Belfiore du 19-1-2015
(5) www.wired.com, Article de Cade Metz du 16-11-15
(6) Loi 78-17 du 6-1-1978, art. 7
(7) Règl. UE 2016/679 du 27-4- 2016, art. 6 § 1
(8) Loi 78-17 du 6-1-1978, art. 6
(9) Loi 78-17 du 6-1-1978, art. 25
(10) Post du 6-2-2017
(11) Loi 78-17 du 6-1-1978, art. 8




Le machine learning, déjà compositeur désormais cinéaste

Le machine learning, déjà compositeur désormais cinéasteLa création récente et inédite d’œuvres par des algorithmes soulève de nombreuses questions en droit d’auteur.

Alors que la musique composée par des programmes d’intelligence artificielle connaît ses premiers succès populaires, c’est désormais au tour du cinéma de faire appel aux techniques de machine learning.

Le machine learning, auteur compositeur

A l’automne 2016, Sony diffusait en ligne deux titres largement écoutés, composés par son programme de machine learning baptisé Flow Machines. Le premier, « Daddy’s Car » (1), s’inspire directement du répertoire des Beatles, tandis que le second, « The Ballad of Mr Shadow » (2), est issu de l’étude des styles propres à Irvin Berlin, Duke Ellington, George Gershwin et Cole Porter (3).

Si plusieurs programmes informatiques étaient déjà parvenus à générer une création musicale originale (4), notamment au travers des travaux de David Cope (5) ou encore du TensorFlow de Google (6), c’est véritablement la première fois que des algorithmes d’intelligence artificielle parviennent à composer des œuvres aussi abouties.

Cette réussite s’explique tant par la performance des systèmes machine et deep learning développés aujourd’hui (7) que par les quantités considérables de données transmises à ces machines pour fournir un résultat optimal. C’est effectivement grâce à l’analyse d’un catalogue aussi vaste que celui des Beatles, et plus précisément de l’étude minutieuse des partitions, de l’orchestration et de la production de l’ensemble de leurs œuvres, qu’un modèle de machine learning a pu restituer une mélodie originale en tout point semblable à leur univers musical.

Le machine learning, réalisateur d’une oeuvre cinématographique

Désormais, les prouesses artistiques du machine learning ne se cantonnent plus à la musique, et c’est l’actrice américaine Kristen Stewart qui assure la publicité de l’utilisation de cette technologie au cinéma. A l’occasion de la présentation de son premier court métrage au festival de Sundance (8), cette dernière a en effet coécrit un article scientifique sur le recours au machine learning au sein de son film « Come Swim » (9).

Elle y explique comment le machine learning a permis la création d’une œuvre originale, via le transfert d’un extrait cinématographique au sein d’une représentation picturale. La création finale a emprunté les mouvements et traits du film originaire, tout en ayant intégré l’atmosphère et les couleurs d’une œuvre figée. « Come swim » apparait de la sorte comme une œuvre composite (10), coréalisée par Kristen Stewart et un système de machine learning, reprenant le scénario d’un premier film, et dont la photographie au sens cinématographique est tirée d’une œuvre plastique.

Si dans la présente espèce, l’algorithme machine learning ne s’est appuyé que sur deux créations émanant du même auteur, également à l’initiative du programme, des difficultés importantes pourraient advenir dans les hypothèses d’une utilisation par la machine d’un nombre plus important d’œuvres issus d’auteurs différents. En pareille circonstance, et selon l’exploitation faite de ces œuvres par l’algorithme, il importera en amont de solliciter l’accord des différents auteurs, et ce conformément au régime juridique des œuvres dérivées (11).

Quelle protection accorder aux œuvres machine learning ?

Si ces œuvres restent aujourd’hui anecdotiques, car peu nombreuses et ne découlant pas toujours exclusivement de programmes d’intelligence artificielle, les questions soulevées par leur émergence et leur future expansion demeurent toutefois cruciales.

Il est tout d’abord primordial de pouvoir identifier le titulaire des droits d’auteur sur l’œuvre générée par le machine learning. Est-ce le concepteur du programme, son éventuel commanditaire ou la machine elle-même ? De la réponse apportée à cette interrogation découle l’attribution des différents droits et prérogatives rattachés à la qualité d’auteur. Pour une musique écoutée près de 1.500.000 fois sur YouTube cette réflexion est loin d’être anodine (1).

A cet égard, la jurisprudence a déjà eu l’occasion de préciser que la qualité d’auteur d’une œuvre de l’esprit ne peut être attribuée qu’à une personne physique. Le Tribunal de grande instance de Paris a par exemple refusé de reconnaitre un caractère original à des photographies aériennes, en précisant notamment que les clichés ont été pris à bord d’un avion équipé d’appareils photographiques déclenchés automatiquement et que l’angle de prise de vue était toujours le même (12). La Cour d’appel de Riom a quant à elle indiqué que la protection par le droit d’auteur d’une image satellite ne peut résulter que d’une mise en œuvre personnalisée d’une technologie complexe par un processus de transformation et d’amélioration (13).

Si les tribunaux semblent vouloir opérer une différenciation entre les œuvres de l’esprit protégeable par le droit d’auteur et les œuvres des machines, il serait opportun de réfléchir à un régime de protection venant davantage garantir l’investissement et définissant le titulaire de droits habilité à céder, concéder et défendre l’œuvre du machine learning. Face à ces questions éminemment sensibles, et partant du postulat que la création n’est plus l’apanage des êtres humains, il est aujourd’hui impérieux de déterminer le régime juridique des œuvres fruits de l’intelligence artificielle.

Lexing Alain Bensoussan Avocats
Lexing Propriété intellectuelle

(1) YouTube, Vidéo « Daddy’s Car: a song composed by Artificial Intelligence – in the style of the Beatles », 19-9-2016
(2) YouTube, Vidéo « Mr Shadow: a song composed by Artificial Intelligence », 19-9-2016
(3) Live Science, Article « Robo Rocker: How Artificial Intelligence Wrote Beatles-Esque Pop Song », 30-9-2016
(4) Wikipedia.org, Illiac Suite
(5) Theguardian.com, Article « David Cope: ‘You pushed the button and out came hundreds and thousands of sonatas' »,11-7-2010
(6) TensorFlow Google, Magenta
(7) Post du 6-2-2017
(8) Hollywoodreporter.com, Vidéo « Kristen Stewart (‘Come Swim’ Director) on Female Directors : « Just Make Stuff » Sundance 2017″, 1-2-2017
(9) Arxiv.org, Article « Bringing Impressionism to Life with Neural Style Transfer in Come Swim », 19-1-2017
(10) CPI, art. L. 113-2
(11) CPI, art. L. 113-4
(12) TGI Paris, 3e ch., 6-10-2009, Casalis c/ Ville de Paris
(13) CA Riom, ch. com 14-5-2003, Rubie’s france c/ Msat




Le machine learning : un engouement toujours persistant

Le machine learning : un engouement toujours persistantLe machine Learning concentre toujours toutes les attentions et connait ainsi un développement sans précédent.

Si cette technologie, autrement appelée apprentissage automatique n’évoque rien ou très peu pour beaucoup, elle demeure toutefois à l’origine d’avancées scientifiques majeures telles les véhicules sans conducteur, la reconnaissance de la parole, ou encore l’optimisation publicitaire et les moteurs de recommandations produits.

Le machine learning ou la science de la prédiction

La diversité possible et effective des applications de cette technologie explique l’importance croissante de son développement en entreprise comme à l’université et tend à l’ériger en véritable champ d’étude automne. Au sein de l’intelligence artificielle, le machine learning occupe en effet aujourd’hui une place centrale.

Selon les mots du théoricien Arthur Samuel, le machine learning vise précisément à « donner aux ordinateurs la capacité d’apprendre sans être explicitement programmés à apprendre » (1). Cet apprentissage, les algorithmes machine learning le font par l’établissement de prédictions, elles-mêmes permises par le traitement de données considérables. Les programmes d’apprentissage automatique vont rechercher des schémas (associant un exemple à un résultat connu), afin d’être en mesure de doter l’exemple fourni du bon résultat. Ainsi, la qualité de ce résultat ou plus spécifiquement des prédictions et des décisions émises par un programme, se perfectionne avec le temps, par l’entrainement (2).

Une diversification du machine learning

Face aux quantités astronomiques d’informations aujourd’hui disponibles, le machine learning se révèle être un outil précieux à même de cibler les données pertinentes et surtout d’optimiser voire de suppléer la prise de décision de toute personne.
Outre l’utilité marketing incontournable du machine learning, capable notamment d’anticiper les choix des consommateurs (3), les services que cette technologie propose paraissent désormais sans limite eu égard aux différentes applications que lui trouvent et développent les principaux acteurs du secteur du numérique.

Pour exemple, Uber a mis en place tout récemment un pôle recherche consacré exclusivement à l’amélioration de son système de routage et à la confection de voitures automnes (4). Facebook de son côté, vient d’étendre sur Paris son centre mondial de recherche sur la reconnaissance d’images, du discours et du langage du corps (6).

Ainsi, les programmes machine learning font désormais partie de notre quotidien, prenant des décisions de tout ordre, à notre place et dans des champs toujours plus étendus. A cet égard, il est peu dire que la propension du droit à régir ce champ de l’intelligence artificielle reste beaucoup trop mesurée, et ce en dépit du besoin accru de protection des consommateurs et des libertés des individus.

Lexing Alain Bensoussan Avocats
Lexing Informatique et libertés

(1) Stanford InfoLab, article de John McCarthy et Ed Feigenbaum, « Arthur Samuel: Pioneer in Machine Learning »
(2) Princeton University, Department of Computer science, article de Rob Schapire, « COS 511: Theoretical Machine Learning », 4-2-2008
(3) Actu marketing.fr, article d’Anne-Sophie Fronek, « La naissance du Machine Learning dans les années 50 », 5-10-2016
(4) Siècle Digital, article de Valentin Blanchot, « Uber rachète Geometric Intelligence et lance Uber AI Labs », 5-12-2016
(5) Le Monde informatique, article de Dominique Filippone, « Facebook ouvre un centre de recherche dédié au Machine Learning à Paris », 5-6-2015




Le droit des humains doit être appliqué au droit des robots

Le droit des humains doit être appliqué au droit des robotsAlain Bensoussan revient sur l’accident qui a entraîné en juin dernier, la mort d’un employé causée par un robot.

Un droit des robots s’impose, cet accident en est l’illustration…

Peut-il s’agir d’un accident industriel comme les autres ? Un robot peut-il vraiment être considéré comme un meurtrier ? Y a-t-il un vide juridique ? Telles sont les questions posées par Guillaume Galpin pour Archimag (1).

Selon le constructeur automobile, le robot était un ancien modèle isolé dans une cage de sécurité pour éviter ce genre de drame. L’enquête en cours devra déterminer les causes exactes de l’accident et notamment rechercher les raisons qui peuvent expliquer qu’un ouvrier soit intervenu dans la cage d’un robot industriel.

Il ne s’agit pas du premier meurtre par un robot pour la simple raison qu’un robot ne peut être considéré comme un meurtrier dans l’actuel Etat de droit. Mais demain, la réponse sera peut-être oui, si l’on applique le droit des humains aux droits des robots.

Grâce au développement de l’intelligence artificielle, les robots sont désormais à même de prendre des décisions de manière autonome et d’apprendre par eux-mêmes (machine learning). « Le robot interprète l’environnement grâce à ses capteurs et prend des décisions grâce à sa plateforme d’IA », précise Alain Bensoussan.

Pour combler ce vide juridique, Maître Bensoussan milite pour la création d’un droit des robots et particulièrement la mise en place d’une « personnalité robot » et d’un régime juridique associé qui rendrait responsable pénalement et civilement les actes commis par les robots (2).

(1) Lire la totalité de l’interview sur Archimag du 6 juillet 2015, « Il faut appliquer le droit des humains au droit des robots« .
(2) Lire également, « Le droit des robots« , ouvrage co-écrit par Alain et son fils, Jérémy Bensoussan (collection Minilex, Larcier, 2015).




Les algorithmes prédictifs au cœur des stratégies e-commerce

Les algorithmes prédictifs au cœur des stratégies e-commerceL’algorithme s’est imposé comme un outil incontournable pour cibler au mieux le consommateur par des  recommandations personnalisées : publicité ciblée, retargeting publicitaire, etc.

La dernière mode est même aux algorithmes prédictifs, au cœur de la stratégie e-commerce des entreprises.

En combinant l’analyse de données avec les statistiques prédictives, les e-commerçants tentent de prévoir les comportements des consommateurs, notamment des internautes, et agir par anticipation.

En pratique, les moteurs d’algorithme prédictifs, ou encore de marketing prédictif, ont vocation à agréger tous types de données sur les internautes, afin de proposer à chaque individu des produits ou un contenu qui correspondent à ses besoins et/ou ses envies.

A cette fin, les données agrégées peuvent provenir de nombreuses sources telles que les achats d’ores et déjà effectués par le consommateur, son adhésion à des programmes de fidélité ou de récompenses, la navigation de l’internaute sur les moteurs de recherche et sur internet de manière générale, les commentaires mis en ligne par le client sur des produits achetés au préalable, ou encore le comportement de l’internaute s’agissant de ses courriels, voire le contenu de ces courriels.

Pour aller encore plus loin, certains commerçants en ligne se dotent d’outils de filtrage collaboratif ayant vocation à identifier les produits qu’ont achetés d’autres internautes ayant le même profil.

Par ailleurs, outre l’utilisation de l’analyse prédictive et du big data à des fins de pur marketing, le secteur du e-commerce a également recours à ces techniques à des fins de lutte contre la fraude au paiement en ligne. En effet, de nombreux modules de lutte contre la fraude à la carte bancaire par exemple reposent sur des techniques de scoring faisant appel à des calculs reposant sur des algorithmes prédictifs et statistiques décisionnelles.

A ces techniques d’analyse prédictive peut également s’associer la technique du « machine learning », ou algorithme d’apprentissage, une branche de l’intelligence artificielle visant à doter les ordinateurs de la capacité d’améliorer leurs performances sans intervention humaine : l’algorithme progresse ainsi par lui-même. Certains sites internet ajoutent également au modèle prédictif une couche de web sémantique…

En tout état de cause, ces techniques imposent de s’appuyer sur une collecte massive de données à caractère personnel des internautes, une telle collecte devant être particulièrement encadrée.

Or, si des règles existent d’ores et déjà en matière de traitement et de protection des données à caractère personnel, elles ne paraissent pas toujours appropriées que ce soit au secteur de l’e-commerce, ou encore aux techniques mises en œuvre dans le cadre de l’utilisation des algorithmes prédictifs, et peuvent nécessiter une adaptation dans leurs modalités d’interprétation et d’application. De nouvelles règles du jeu doivent être définies [1].

L’utilisation des algorithmes prédictifs dans le secteur du e-commerce peut également mener, si elle n’est pas encadrée, à des pratiques pouvant être considérées comme déloyales, voire trompeuses ou agressives, à l’encontre des consommateurs.

Aussi, un grand nombre d’acteurs tentent à ce jour d’encadrer de telles pratiques en rappelant dans diverses publications les règles juridiques applicables mais également en définissant des règles métiers sectorielles, particulièrement pour ce qui concerne le secteur du e-commerce.

En effet, si le Conseil d’Etat s’est récemment penché sur la question [2], imposant aux auteurs de décisions s’appuyant sur la mise en œuvre d’algorithmes prédictifs une obligation générale de transparence dans l’utilisation des données des internautes ou encore donnant des pistes pour limiter le développement de pratiques commerciales déloyales en ligne reposant sur l’utilisation d’algorithmes prédictifs (par exemple, la différenciation des prix en fonction des internautes), d’autres professionnels du secteur se penchent sur les questions soulevées par l’utilisation de telles techniques.

Ainsi, de nombreux livres blancs fleurissent sur des thèmes variés (de type « Booster son e-commerce au moyen de recommandations prédictives », « le big data prédictif », etc.) mais toujours axés autour du même sujet : comment utiliser au mieux les algorithmes prédictifs dans le cadre d’une stratégie e-commerce tout en sécurisant juridiquement ces pratiques ?

Ce mouvement de prise de conscience générale doit être l’occasion pour les organismes recourant aux techniques algorithmiques d’analyse prédictive de procéder à un audit juridique de ces pratiques en amont de leur déploiement afin de sécuriser leur utilisation, et ce d’autant qu’à n’en pas douter, l’utilisation massives des données des internautes n’en est qu’à ses prémices.

Alain Bensoussan
Lexing Droit Marketing électronique

[1] Voir « Analyse prédictive, Big Data et protection des données », Post du 18-12-2014
[2] Voir « Algorithmes prédictifs : des enjeux économiques et juridiques », Post du 17-10-2014