Actualités

solutions alternatives aux cookies tiers
Actualités, Afterwork, Droits des personnes, Evénement, Informatique et libertés

Atelier en distanciel pour les DPO : les solutions alternatives aux cookies tiers

Tous à vos agendas ! Inscrivez-vous dès à présent à notre Atelier en distanciel :« Les solutions alternatives aux cookies tiers » qui aura lieu le lundi 9 septembre à 18h. Lire la suite Concernant les cookies tiers Atelier pour DPO : solutions alternatives aux cookies tiers A la suite de la décision de Google d’abandonner son projet d’interdiction des cookies tiers maintes fois reporté, l’écosystème de la publicité digitale souffle. Pour autant, si depuis quelques années les sociétés de l’Adtech et les annonceurs se préparaient à cette interdiction des cookies tiers généralisée, cette annonce ne doit pas sonner l’abandon des solutions alternatives, bien au contraire. En effet, non seulement les autorités encouragent l’adoption de solutions alternatives aux cookies tiers moins intrusives mais en plus, il est incontestable que les utilisateurs nourrissent une défiance de plus en plus grande vis à vis de ces cookies se traduisant notamment par des taux de recueil de consentement qui s’affaiblissent. et les solutions alternatives Atelier pour DPO : solutions alternatives aux cookies tiers C’est dans cette optique que nous proposons aux abonnés à la Lettre du DPO de participer à un atelier pratique en distanciel : « Les solutions alternatives aux cookies tiers : quel encadrement juridique » Ne manquez pas cette occasion unique de renforcer votre expertise en la matière ! Quel encadrement juridique ? Atelier pour DPO : solutions alternatives aux cookies tiers Pour les abonnés à la lettre du DPO, profitez en avant-première de notre offre d’atelier en distanciel : Date : lundi 9 septembre 2024 Heure : 18h00 Thème : Les solutions alternatives aux cookies tiers : quel encadrement juridique Animé par : Céline Avignon Inscription : celine-avignon@alain-bensoussan.com Les avocats du cabinet Lexing vous donnent rendez-vous le 9 septembre à 18h. Les inscriptions se font par mél à celine-avignon@alain-bensoussan.com.Vous pouvez vous abonner à la Lettre Lexing du DPO en renvoyant ce Bulletin. Created by potrace 1.16, written by Peter Selinger 2001-2019 Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique     Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique Avocate à la Cour d’appel de Paris, Céline Avignon dirige le département Publicité et Marketing électronique du cabinet dont l’objectif est de répondre de manière opérationnelle aux attentes des métiers des entreprises qui opèrent leur transformation digitale, optent pour l’ominicanalité et définissent une stratégie customer centric en abandonnant leur modes de fonctionnement traditionnels. Céline Avignon est nommée Best Lawyer dans les catégories « Advertising Law » et « Privacy and Data Security Law » des éditions 2024 et 2023 du classement de la revue américaine « Best Lawyers ». Phone:+33 (0)6 74 40 80 33 Email:celine-avignon@lexing.law     Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

Actualités, Articles, Contentieux informatique, Internet conseil, Pénal numérique, Publication

Traitement pour le suivi des signalements de vulnérabilités

L’arrêté du 18 juin 2024 prévoit la création d’un traitement automatisé de données à caractère personnel dénommé « Suivi des signalements de vulnérabilités par des éditeurs de logiciel ». Ce traitement est placé sous la responsabilité du directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Cet arrêté fait suite à l’adoption de la loi n°2023-703 du 1er août 2023 relative à la programmation militaire pour les années 2024 à 2030 et portant diverses dispositions intéressant la défense qui impose aux éditeurs de logiciels de notifier les vulnérabilités et incidents significatifs à l’ANSSI. Lire la suite Finalités du traitement pour le suivi des signalements de vulnérabilités Traitement pour le suivi des signalements de vulnérabilités Ce traitement a pour objet la collecte et le traitement des données transmises par les éditeurs de logiciels, conformément à l’article L.2321-4-1 du code de la défense, aux fins de : « Suivre et gérer les notifications de vulnérabilités significatives affectant un de leurs produits ou les notifications d’incident informatique compromettant la sécurité de leurs systèmes d’information et susceptible d’affecter significativement un de leurs produits ; En cas d’inaction de l’éditeur, à la suite d’une mise en demeure de l’Agence nationale de la sécurité des systèmes d’information, informer les utilisateurs de ce produit ou rendre publics la vulnérabilité ou l’incident ainsi que l’injonction adressée à l’éditeur de logiciel. » (arrêté du 18-06-2024, art.1). Données personnelles collectées Traitement pour le suivi des signalements de vulnérabilités Le traitement pour le suivi des signalements de vulnérabilités collecte des données à caractère personnel relatives à l’identification de l’éditeur de logiciel, à la vulnérabilité ou à l’incident significatif et aux utilisateurs du produit affecté. Ces données sont conservées pendant une durée de trois ans à compter de la clôture du traitement de la vulnérabilité ou de l’incident. Accès et destinataires des données collectées Traitement pour le suivi des signalements de vulnérabilités Dans le cadre des nouvelles prérogatives de l’ANSSI, les agents de l’ANSSI sont autorisés à accéder aux données mentionnées ci-dessus afin de pouvoir procéder à l’information des utilisateurs d’un produit affecté. En cas d’inaction de l’éditeur à la suite d’une mise en demeure de l’ANSSI, cette dernière a la possibilité de procéder à l’information des utilisateurs. Dans ce cas, les utilisateurs du produit affecté peuvent être destinataires des informations suivantes : • « Raison sociale et adresse postale de l’éditeur de logiciel concerné » ; • « Nom, prénom du dirigeant de l’éditeur de logiciel concerné ». L’ANSSI responsable du suivi des signalements de vulnérabilités Traitement pour le suivi des signalements de vulnérabilités En centralisant et en gérant les signalements de vulnérabilités de manière proactive, l’ANSSI assure non seulement la protection des utilisateurs finaux mais encourage également une plus grande responsabilité de la part des éditeurs de logiciels. Ce dispositif, qui s’inscrit dans le cadre des dispositions de la loi de programmation militaire, vise à établir un environnement numérique plus sûr et à renforcer la confiance des utilisateurs dans les produits logiciels qu’ils utilisent au quotidien. Avec la collaboration de Manon Juby, stagiaire, étudiante en Master Droit des espaces et des activités maritimes. Created by potrace 1.16, written by Peter Selinger 2001-2019 Pour en apprendre davantage Jennifer Knight Avocate, Responsable d’activité au sein du Pôle Informatique et Droit     Jennifer Knight Avocate, Responsable d’activité au sein du Pôle Informatique et Droit Avocate à la Cour d’appel de Paris, Jennifer Knight est Responsable d’activité au sein du Pôle Informatique et Droit, elle intervient dans les domaines du conseil et du contentieux, principalement en droit de l’informatique et des contrats, ainsi que dans les domaines associés (propriété intellectuelle, données à caractère personnel, droit commercial et de la distribution, marchés publics). Phone:+33 (0)6 31 95 92 37 Email:jennifer-knight@lexing.law     Raphaël Liotier Avocat, Directeur d’activité au sein du pôle Contentieux numérique     Raphaël Liotier Avocat, Directeur d’activité au sein du pôle Contentieux numérique Avocat à la Cour d’appel de Paris, Raphaël Liotier est Directeur d’activité Pénal numérique au sein du pôle Contentieux numérique. Il intervient principalement devant les juridictions pénales et civiles dans le cadre de contentieux en droit pénal du numérique et en droit de la presse. Raphaël Liotier assiste les clients du cabinet, qu’ils soient mis en cause ou victimes, à tous les stades de la procédure pénale. Il intervient dans le cadre de procédures d’enquêtes. Phone:+33 (0)6 21 56 37 05 Email:raphael-liotier@lexing.law     ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

Actualités, Articles, Evénement, Publication, Revue de presse

IA génératives et droit : l’ère de la cobotique juridique

En juin 2024, dans le numéro 138 d’E.D.I Magazine, Frédéric Forster s’adresse aux professionnels du droit en abordant les enjeux que représente la cobotique juridique. L’essor des grands modèles de langage rend nécessaire la collaboration entre les professionnels du droit et les intelligences artificielles génératives. Les intelligences artificielles, telles que ChatGPT d’OpenAI ou Gemini de Google, seront probablement le marqueur de la troisième révolution digitale. Pour les professionnels du droit, cette nouvelle ère est celle de la « cobotique juridique ». Lire la suite L’utilisation des IA génératives dans le domaine juridique IA génératives et droit : l’ère de la cobotique juridique Dans son article, Frédéric Forster détaille les nombreuses utilisations des intelligences artificielles génératives dans le domaine juridique. Celles-ci vont permettre aux professionnels du droit de passer du « faire » au « faire faire ». Afin de corriger certaines malfaçons et de créer de la valeur ajoutée juridique pour compléter le travail réalisé par ces technologies, les professionnels du droit vont devoir passer du statut d’artisan juridique à celui d’ingénieur juridique. Les défis de la cobotique juridique IA génératives et droit : l’ère de la cobotique juridique Frédéric Forster présente en outre les deux principaux défis posés par la cobotique juridique. Il s’agit de la formation des professionnels du droit pour la maîtrise de ces nouveaux outils et du déploiement de ces derniers dans les différentes professions juridiques. Lire l’article de Frédéric Forster, « IA génératives : bienvenue dans la cobotique juridique »,  Magazine E.D.I, n° 138 de juin 2024, p.102. Présentation par Manon Juby, stagiaire, étudiante en Master Droit des espaces et des activités maritimes. Created by potrace 1.16, written by Peter Selinger 2001-2019 Frédéric Forster Avocat, Directeur du pôle Télécoms     Frédéric Forster Avocat, Directeur du pôle Télécoms Avocat à la Cour d’appel de Paris depuis 2006, Frédéric Forster est directeur du pôle Télécoms du cabinet Lexing Alain Bensoussan Avocats depuis 2006. Celui-ci regroupe les départements : Télécoms, Informatique et libertés conseil et Marchés publics. Il est par ailleurs Vice-Président du réseau international d’avocats Lexing, Phone:+33 (0)6 13 28 96 78 Email:frederic-forster@lexing.law     Pour en apprendre davantage À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

Actualités, Articles, Pénal numérique, Presse et communication numérique, Publication

Vulnérabilités et incidents significatifs : les éditeurs tenus de les signaler

La loi n°2023-703 du 1er août 2023 relative à la programmation militaire pour les années 2024 à 2030 contient des dispositions relatives à la responsabilité des éditeurs de logiciels en cas de vulnérabilité significative affectant un de leurs produits ou en cas d’incident informatique compromettant la sécurité de leurs systèmes d’information et susceptible d’affecter un de leurs produis, dont une obligation de notification des vulnérabilités et incidents significatifs à l’ANSSI (1). L’article 66 de cette loi introduit ainsi un nouvel article L.2321-4-1 dans le Code de la défense au sein du chapitre 1er « Responsabilités » du titre III « Sécurité des systèmes d’information ». L’obligation de notification concerne tous les éditeurs de logiciels qui fournissent ce produit : sur le territoire français ; à des sociétés ayant leur siège social sur le territoire français ; ou à des sociétés contrôlées, au sens de l’article L.233-3 du Code de commerce, par des sociétés ayant leur siège social sur le territoire français. Aux termes de l’article L.2321-4-1, un éditeur de logiciel est « toute personne physique ou morale qui conçoit ou développe un produit logiciel ou fait concevoir ou développer un produit logiciel et qui le met à la disposition d’utilisateurs, à titre onéreux ou gratuit ». Un décret du 10 mai 2024 définissant les modalités d’application de cet article est entré en vigueur le 1er juin 2024. Lire la suite L’obligation de notification des vulnérabilités et incidents significatifs à l’ANSSI Vulnérabilités et incidents significatifs : les éditeurs tenus de les signaler La loi de programmation militaire prévoit l’obligation pour les éditeurs de logiciels de notifier à l’ANSSI les vulnérabilités significatives affectant un de leurs produits et les incidents informatiques qui compromettent la sécurité de leurs systèmes d’information et qui sont susceptibles d’affecter significativement un de leurs produits. L’analyse des causes de la vulnérabilité ou de l’incident ainsi que de ses conséquences doit également lui être notifié. En vertu de l’article L.2321-4-1 du Code de la défense, un incident informatique est « Tout évènement compromettant la disponibilité, l’authenticité, l’intégrité ou la confidentialité des données stockées, transmises ou faisant l’objet d’un traitement ou des services que les réseaux et les systèmes d’information offrent ou rendent accessibles ». Les critères d’appréciation du caractère significatif Vulnérabilités et incidents significatifs : les éditeurs tenus de les signaler Il incombe à l’éditeur d’apprécier le caractère significatif de la vulnérabilité et de l’incident dès qu’il en a connaissance. Si la vulnérabilité ou l’incident lui a été notifié par l’ANSSI, l’éditeur dispose d’un délai qui ne peut pas être inférieur à 48h pour apprécier le caractère significatif. Le nouvel article R.2321-1-16, I, du Code de la défense prévoit une liste de critères d’appréciation : le nombre d’utilisateurs concernés par la vulnérabilité ou l’incident affectant le produit ; le nombre de produits intégrant le produit affecté ; l’impact technique, potentiel ou actuel, de la vulnérabilité ou de l’incident sur le fonctionnement attendu du produit. Selon les fonctionnalités du produit, cet impact est évalué au regard de critères de sécurité tels que la disponibilité, l’intégrité, la confidentialité ou la traçabilité ; le type de produit au regard de ses usages et de l’environnement dans lequel il est déployé ; l’exploitation imminente ou avérée de la vulnérabilité ; l’existence d’une preuve technique d’exploitabilité ou d’un code d’exploitation. Cette liste n’est en aucun cas exhaustive. Si, après analyse, l’éditeur détermine que la vulnérabilité ou l’incident en cause revêt un caractère significatif, alors il doit le notifier à l’ANSSI. La notification doit comporter les informations utiles à la compréhension de la vulnérabilité ou de l’incident en cause (C. défense, nouvel art. R.2321-1-16, II). D’un point de vue pratique, l’éditeur de logiciel doit compléter un formulaire de déclaration mis à disposition sur le site internet de l’ANSSI et adresser à cette dernière toute information complémentaire au fur et à mesure de son analyse ou en réponse aux demandes d’informations supplémentaires de l’ANSSI (C. défense, nouvel art. R.2321-1-16, III). L’éditeur de logiciel met en œuvre, le cas échéant, les mesures utiles requises afin de sécuriser la vulnérabilité ou l’incident en cause (C. défense, nouvel art. R.2321-1-16, III). L’obligation d’information des utilisateurs du produit affecté Vulnérabilités et incidents significatifs : les éditeurs tenus de les signaler L’article L.2321-4-1 du Code de la défense prévoit également une obligation d’information des utilisateurs des vulnérabilités et incidents significatifs. Le délai pour informer les utilisateurs est déterminé par l’ANSSI, après analyse conjointe de la vulnérabilité ou de l’incident avec l’éditeur, et tient compte de l’urgence, des risques pour la défense et la sécurité nationale et du temps nécessaire aux éditeurs pour prendre les mesures correctives. L’ANSSI notifie à l’éditeur le délai dans lequel il doit informer ses utilisateurs, ce délai ne pouvant, être inférieur à 10 jours ouvrables, sauf en cas de risque pour la défense et la sécurité nationale requérant une information des utilisateurs sans délai (C. défense, nouvel art. R.2321-1-17, I). L’information des utilisateurs du produit affecté est faite par un message d’information comprenant, le cas échéant, toute recommandation que ces derniers peuvent appliquer. L’éditeur doit rendre compte à l’ANSSI de l’envoi de ce message et donc du respect de son obligation d’information (C. défense, nouvel art. R.2321-1-17, II). Les pouvoirs de l’ANSSI en cas de non-respect de l’obligation d’information des utilisateurs Vulnérabilités et incidents significatifs : les éditeurs tenus de les signaler En cas de non-respect par l’éditeur de logiciel de l’obligation d’information, l’ANSSI peut l’enjoindre de procéder à cette information (C. défense, art. L.2321-4-1, al. 5). L’injonction doit (C. défense, nouvel art. R.2321-1-18) : • être motivée ; • préciser le délai imparti aux éditeurs de logiciels, qui ne peut être inférieur à 10 jours, ainsi que les mesures requises pour s’y conformer ; • être notifiée à l’éditeur par lettre recommandée avec avis de réception ; • informer l’éditeur que l’ANSSI peut informer les utilisateurs ou rendre public la vulnérabilité ou l’incident ainsi que l’injonction si celle-ci n’a pas été mise en œuvre. L’éditeur a la faculté de présenter des observations dans le délai imparti. L’ANSSI peut également informer

organisations altruistes
Actualités, Articles, Données publiques, Publication

La Cnil, autorité compétente pour l’altruisme en matière de données

Les organisations altruistes en matière de données sont désormais sous le contrôle de la Cnil. La loi « SREN » (1) désigne la Commission nationale de l’informatique et des libertés (Cnil) comme l’autorité compétente pour l’altruisme en matière de données, au sens de l’article 23 du DGA  ou « Data Governance Act » (2). Lire la suite L’objet du Data Governance Act : La Cnil, autorité compétente pour l’altruisme en matière de données Le Data Governance Act met en place un cadre général pour faciliter le partage des données au sein de l’Union européenne. Le but est de garantir à la fois l’accès à de grands volumes de données au profit de l’économie européenne et un contrôle sur les données propre à renforcer la souveraineté numérique au sein de l’Union européenne. Il s’inscrit, avec le règlement (UE) 2023/2854 du Parlement européen et du Conseil du 13 décembre 2023 concernant des règles harmonisées portant sur l’équité de l’accès aux données et de l’utilisation des données (dit « Data Act »), dans le cadre de la stratégie européenne pour les données. Dans ce but, le Data Governance Act établit : • les conditions de réutilisation, au sein de l’Union, de certaines catégories de données détenues par des organismes du secteur public ; • un cadre de notification et de surveillance pour la fourniture de services d’intermédiation de données ; • un cadre pour l’enregistrement volontaire des entités qui collectent et traitent les données mises à disposition à des fins altruistes ; • un cadre pour l’établissement d’un comité européen de l’innovation dans le domaine des données. L’altruisme : favoriser le partage des données au sein de l’UE La Cnil, autorité compétente pour l’altruisme en matière de données L’article 2, paragraphe 16 du Data Governance Act définit l’altruisme en matière de données comme « le partage volontaire de données fondé sur le consentement donné par les personnes concernées au traitement de données à caractère personnel les concernant, ou l’autorisation accordée par des détenteurs de données pour l’utilisation de leurs données à caractère non personnel sans demander ni recevoir de contrepartie qui aille au-delà de la compensation des coûts qu’ils supportent lorsqu’ils mettent à disposition leurs données, pour des objectifs d’intérêt général prévus par le droit national […] ». Ces objectifs d’intérêt général concernent notamment les soins de santé, la lutte contre le changement climatique ou l’amélioration de la prestation de services publics. Les organisations altruistes en matière de données La Cnil, autorité compétente pour l’altruisme en matière de données Les dispositions du chapitre IV « Altruisme en matière de données » du Data Governance Act prévoient que des entités peuvent être enregistrées par l’autorité compétente de l’État membre dont elles dépendent comme « organisations altruistes en matière de données » au sein d’un registre public national. Ces organisations doivent satisfaire aux critères suivants : • mener des activités altruistes en matière de données ; • être une personne morale constituée en vertu du droit national pour poursuivre des objectifs d’intérêt général prévus dans le droit national, le cas échéant ; • exercer ses activités dans un but non lucratif et être juridiquement indépendante de toute entité exerçant des activités dans un but lucratif ; • se conformer, au plus tard 18 mois après la date d’entrée en vigueur des actes délégués complétant le Data Governance Act, à un recueil de règles qui sera établi pour fixer les exigences en matière d’information des personnes concernées et de sécurité des données, ainsi que des feuilles de route en matière de sensibilisation à l’altruisme en matière de données et des recommandations sur les normes d’interopérabilité. EXIGENCES DE TRANSPARENCE La Cnil, autorité compétente pour l’altruisme en matière de données Ces organisations sont soumises à des exigences de transparence, dont la tenue d’un registre des traitements des données détenues mis en œuvre par des personnes physiques ou morales. Elles doivent également remettre un rapport annuel d’activité à l’autorité compétente nationale. Ces organisations doivent informer les personnes ou détenteurs de données concernés des caractéristiques des traitements susvisés et leur donner les moyens et outils nécessaires pour leur permettre de donner leur consentement ou autorisation. Ces données ne peuvent être traitées que pour les objectifs autorisés d’intérêt général. Les organisations doivent également assurer un niveau de sécurité approprié des données et informer les détenteurs de données des transferts, accès ou utilisations illicites portant sur les données personnelles qu’elles ont partagées. La Cnil autorité compétente des organisations altruistes La Cnil, autorité compétente pour l’altruisme en matière de données L’article 23 du Data Governance Act prévoit que chaque Etat membre doit désigner une ou plusieurs autorités compétentes responsables de son registre public national des organisations altruistes en matière de données reconnues et en notifier la Commission européenne. Ces autorités compétentes ont notamment pour mission l’enregistrement des organisations altruistes en matière de données et la tenue ainsi que la mise à jour du registre public national de ces organisations. Elles doivent contrôler et surveiller le respect par les organisations altruistes en matière de données reconnues des exigences énoncées dans le chapitre IV du Data Governance Act. Les prochaines étapes La Cnil, autorité compétente pour l’altruisme en matière de données Concernant la France, l’article 57 de la loi SREN a ajouté à la « Loi Informatique et libertés » (4) un nouveau titre IV bis composé de 3 articles (124-1, 124-2 et 124-3) qui disposent que : • la Cnil est l’autorité compétente pour l’enregistrement des organisations altruistes en matière de données, ainsi que la tenue et la mise à jour du registre public national ; • elle traite à ce titre les demandes d’enregistrement formées par les organisations candidates : • elle reçoit et instruit toute réclamation formée par des personnes physiques et morales ayant consenti au traitement des données personnelles les concernant ou ayant autorisé le traitement des données non personnelles qu’elles détiennent. Un décret en Conseil d’Etat doit encore préciser les modalités de la procédure d’enregistrement. D’ores-et-déjà, la Cnil met à la disposition des organisations candidates une adresse électronique dédiée pour répondre à leurs questions (dga@cnil.fr). Elle annonce également qu’elle va progressivement enrichir son site

Actualités, Articles, Propriété intellectuelle, Publication

L’Autorité de la concurrence sanctionne l’entraînement de Gemini

Dans sa décision 24-D-03 du 15 mars 2024, l’Autorité de la concurrence a prononcé une amende de 250 millions d’euros à l’encontre de Google. La société n’a pas tenu ses engagements relatifs à l’entraînement de son IA générative « Gemini ». Lire la suite L’autorité de la concurrence au service des droits voisins face à l’IA L’Autorité de la concurrence sanctionne l’entraînement de Gemini A la suite d’une loi du 24 juillet 2019, l’Autorité de la concurrence veille au respect des droits voisins. Plus précisément, elle cherche à protéger les éditeurs de presse face aux large language models (« LLM ») de Gemini ou ChatGPT. En effet, afin de s’entraîner et de générer un out-pout, l’IA générative se fonde sur une base de données. Parmi ces données figurent notamment des articles de presse protégés par des droits voisins. Or, l’utilisation de ces contenus s’opère souvent sans l’accord des éditeurs de presse, les privant ainsi de rémunération. Ainsi, en novembre 2019, six syndicats ont saisi l’Autorité de la concurrence, dénonçant un abus de position dominante par Google. De fait, la société n’affiche plus les extraits des articles que les éditeurs de presse lui ont gratuitement consentis. Ceci porte atteinte à la transparence des informations qui permettent d’évaluer leur rémunération au titre des droits voisins. Dans sa décision 20-MC-01 du 9 avril 2020, l’Autorité de la concurrence a prononcé des injonctions à l’encontre de Google. Le non-respect par Google d’engagements négociés avec l’Autorité de la concurrence L’Autorité de la concurrence sanctionne l’entraînement de Gemini Google n’a pas respecté les injonctions prononcées par l’Autorité de la concurrence. Par conséquent, cette dernière a prononcé une amende de 500 millions d’euros dans sa décision 21-D-17 du 12 juillet 2021. Toutefois, Google a pris divers engagements afin de garantir des négociations avec les éditeurs de presse. Dans sa décision 22-D-13 du 21 juin 2022, l’Autorité de la concurrence a accepté ces engagements. En vertu de ceux-ci, Google devait procéder à des négociations fondées sur des critères transparents, objectifs et non discriminatoires. En outre, Google devait mettre à la disposition des éditeurs de presse les informations leur permettant d’évaluer leur rémunération au titre des droits voisins. Enfin, Google devait prendre les mesures nécessaires à la préservation des autres relations commerciales qu’il entretenait avec les éditeurs de presse. Or, l’Autorité de la concurrence a constaté que Google avait manqué aux obligations de transparence, d’objectivité et de non-discrimination. En effet, Google n’a pas fourni suffisamment d’informations sur l’exploitation des contenus de presse par son IA générative Gemini. En outre, Google a lié cette exploitation aux autres relations commerciales qu’il entretenait avec les éditeurs. Enfin, les éditeurs ne disposaient pas de l’option de retrait (« opt-out »). Dès lors, ils ne pouvaient pas se désengager, c’est-à-dire que le LLM de Gemini avait toujours accès à leurs contenus. Ainsi, Google ne prenait pas en compte le consentement des éditeurs de presse. L’Autorité de la concurrence prononce une sanction définitive à l’encontre de Google L’Autorité de la concurrence sanctionne l’entraînement de Gemini L’autorité de la concurrence a prononcé la toute première sanction permettant de protéger les droits d’auteur et droits voisins face aux IA. Il s’agit d’une amende fixée à 250 millions d’euros. Google n’ayant pas contesté les faits, la société a bénéficié de la procédure de transaction. Ainsi, l’Autorité de la concurrence a fixé un montant moins sévère. Cette mesure marque le souhait de mettre en place une protection effective des droits de la presse dans le cadre des IA. Avec la collaboration de Oxana Karlick, stagiaire, étudiante en 2e année de Licence à l’Université Paris Panthéon Assas. Created by potrace 1.16, written by Peter Selinger 2001-2019 Marie Soulez Avocate, Directrice du département Propriété intellectuelle Contentieux Marie Soulez Avocate, Directrice du département Propriété intellectuelle Contentieux Avocate à la Cour d’appel de Paris depuis 2006, titulaire d’un DEA de droit de la communication (Paris II), elle a rejoint le cabinet Lexing Alain Bensoussan Avocats en 2007. Marie Soulez est titulaire du certificat de spécialisation en droit de la propriété intellectuelle, avec la qualification spécifique « droit de la propriété littéraire et artistique ». Elle a développé une pratique de très haut niveau dans tous les domaines du droit des nouvelles technologies de l’information et de la communication. Marie Soulez est directrice du département Propriété intellectuelle Contentieux. Phone:+33 (0)7 85 53 57 52 Email:marie-soulez@lexing.law Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

Actualités, Articles, Evénement, Publication, Revue de presse

Directive CSRD et obligations de rapport de durabilité

Dans le numéro 137 d’E.D.I Magazine de mai 2024, Frédéric Forster nous présente les obligations de rapport de durabilité des entreprises, imposées par la directive CSRD (Corporate Sustainability Reporting Directive). Entrée en vigueur le 1er janvier 2024 et transposée en droit français par une ordonnance du 6 décembre 2023, elle remplace la directive NRD de 2014. Cette directive vise à favoriser une meilleure évaluation de l’impact environnemental des entreprises et à encourager ces dernières à rendre leur activité plus responsable. Lire la suite Les entreprises concernées par la directive CSRD Directive CSRD et obligations de rapport de durabilité La directive CSRD concerne les grandes entreprises et les PME, excepté les microentreprises, qui sont des entités d’intérêt public. A l’issue d’un déploiement en trois temps, elle touchera près de 50 000 entreprises. Les principales dispositions de la directive CSRD Directive CSRD et obligations de rapport de durabilité Frédéric Forster nous expose les implications majeures de la directive CSRD en matière de rapport de durabilité. Dans son article, il détaille les éléments suivants : • la notion essentielle de « double matérialité » qui impose aux entreprises d’inclure dans le rapport de gestion des informations de deux ordres ; • la forme du rapport ; • les nouveaux « standards de reporting de durabilité » ou normes ESRS (European Sustainability Reporting Standards) ; • la vérification obligatoire du rapport par un commissaire aux comptes ou un organisme tiers indépendant. Ainsi, la directive CSRD se place dans le sillage du développement de la responsabilité sociale des entreprises et dans la lignée du Pacte vert européen. Lire l’article de Frédéric Forster, « Directive CSRD : les obligations de rapport de durabilité des entreprises pour le magazine », E.D.I n° 137 de mai 2024, p. 94.  Présentation par Manon Juby, stagiaire, étudiante en Master Droit des espaces et des activités maritimes. Created by potrace 1.16, written by Peter Selinger 2001-2019 Frédéric Forster Avocat, Directeur du pôle Télécoms Frédéric Forster Avocat, Directeur du pôle Télécoms Avocat à la Cour d’appel de Paris depuis 2006, Frédéric Forster est directeur du pôle Télécoms du cabinet Lexing Alain Bensoussan Avocats depuis 2006. Celui-ci regroupe les départements : Télécoms, Informatique et libertés conseil et Marchés publics. Il est par ailleurs Vice-Président du réseau international d’avocats Lexing, Phone:+33 (0)6 13 28 96 78 Email:frederic-forster@lexing.law Pour en apprendre davantage À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

Actualités, Internet conseil

Les géants du numérique unis contre les dérives de l’IA dans les élections

Le 16 février 2024, les géants du numérique ont dévoilé l’accord : « Tech Accord to Combat Deceptive Use of AI in 2024 Elections » (1) contre les dérives de l’IA. Cette union vise à empêcher que l’intelligence artificielle ne génère des contenus fallacieux, dans le cadre spécifique des élections à travers le monde de 2024. L’accord réunit aussi bien producteurs (Google, OpenAI) que diffuseurs (Meta, Tiktok) de tels contenus. Lire la suite La régulation des contenus générés par IA en période électorale : un enjeu fondamental pour la démocratie Union géants du numérique contre les dérives de l’IA dans les élections L’essor des technologies d’IA générative bouleverse le paysage de la communication politique. Si ces outils offrent de nouvelles possibilités pour promouvoir des idées et des candidats, ils soulèvent également des inquiétudes quant à leur potentiel de manipulation et de désinformation. Les contenus générés par IA, tels que les deepfakes, peuvent être utilisés pour diffuser de fausses informations ou pour discréditer des candidats. Ces pratiques menacent l’intégrité des processus électoraux et la confiance des citoyens dans les institutions démocratiques. Face à ces enjeux, les principales entreprises du numérique ont conclu un accord le 16 février 2024 visant à lutter contre la diffusion de contenus politiques trompeurs générés par IA en période électorale. Sont spécialement visés : « les contenus audio, les vidéos ou les images convaincants générés par IA, qui, de façon malhonnête, simulent ou modifient l’apparence, la voix ou les actes de candidats, d’organisateurs de scrutins, ou d’autres acteurs-clés d’élections démocratiques, ou qui fournissent de fausses informations aux électeurs sur quand, où et comment voter ». Pour mener à bien cette mission contre les dérives de l’IA, les entreprises signataires envisagent plusieurs actions : • utiliser des logiciels pour détecter les contenus générés par IA; • développer des outils pour marquer et étiqueter ces contenus, assurant ainsi une meilleure traçabilité ; • renforcer la mise à disposition d’outils de signalement pour les internautes. L’évolution du cadre juridique : vers un encadrement plus précis Union géants du numérique contre les dérives de l’IA dans les élections En parallèle de cette initiative, les autorités publiques s’emparent du sujet. Au niveau national, le législateur français a récemment adopté la loi visant à sécuriser et à réguler l’espace numérique (SREN) (2). Cette loi, entrée en vigueur le 23 mai 2024, traite notamment des dérives de l’IA du genre deepfakes ou « hypertrucages ». Cet outil aspire à être efficace en matière de désinformation politique. La loi SREN modifie par exemple l’article 226-8 du code pénal qui prévoit dorénavant : « Est puni d’un an d’emprisonnement et de 15 000 euros d’amende le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » (3). Au niveau européen, l’AI Act a complété le DSA (4) entré en vigueur le 17 février 2024 (5). L’AI Act qui entrera en vigueur en 2026 consacre l’obligation d’étiquetage des contenus générés par IA. Le règlement prévoit ainsi que « les fournisseurs de systèmes d’IA, y compris les systèmes GPAI, générant du contenu audio, graphique, vidéo ou textuel de synthèse, doivent veiller à ce que les sorties du système d’IA soient marquées dans un format lisible par machine et détectables comme étant générées ou manipulées artificiellement. Les fournisseurs veillent à ce que leurs solutions techniques soient efficaces, interopérables, robustes et fiables dans la mesure où cela est techniquement faisable, en tenant compte des spécificités et des limites des différents types de contenu, des coûts de mise en œuvre et de l’état de l’art généralement reconnu, tel que cela peut être reflété dans les normes techniques pertinentes ».  Les géants du numérique face au défi de l’autorégulation des contenus générés par IA Union géants du numérique contre les dérives de l’IA dans les élections Par cet accord, les géants du numérique cherchent à démontrer au législateur leur capacité à s’autoréguler en matière de contenus qu’ils produisent et diffusent. Toutefois, l’accord reste flou quant aux moyens d’action spécifiques que les entreprises signataires envisagent pour remplir cette mission. Cette prudence répond à une double exigence : il est essentiel de lutter contre les contenus trompeurs susceptibles d’influencer les électeurs, mais cette lutte ne doit pas compromettre la liberté d’expression des internautes. En effet, cette liberté est essentielle dans le cadre des débats démocratiques. Par conséquent, les actions du législateur et des entreprises concernées doivent veiller à ne pas restreindre cette liberté. Les internautes doivent avoir la possibilité d’utiliser l’IA pour créer et partager des contenus satiriques voire provocateurs. C’est pourquoi les entreprises signataires de l’accord précisent qu’elles devront « faire attention au contexte, et préserver l’expression éducative, documentaire, artistique, satirique ainsi que politique » des contenus. En conclusion, la régulation des contenus générés par une intelligence artificielle et le contrôle des éventuelles dérives de l’IA est un sujet particulièrement délicat. Une collaboration entre les entreprises du numérique et les législateurs est nécessaire pour contrôler efficacement les dérives potentielles. Une porte-parole d’OpenAI l’a récemment souligné dans un communiqué : « We agree that rigorous debate is crucial given the significance of this technology, and we’ll continue to engage with governments, civil society and other communities around the world » (6). Accord technologique pour combattre l’utilisation trompeuse de l’IA lors des élections de 2024. Loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique.  Art. 226-8 du Code pénal. DSA ou Digital Services Act (règlement européen sur les services numériques). Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE. « Nous sommes d’accord sur le fait qu’un débat rigoureux est crucial étant donné l’importance de cette technologie, et nous continuerons à dialoguer avec les gouvernements, la société civile et d’autres communautés à travers le monde ». Avec la collaboration d’Adrien Chevreuil,

Actualités, Articles, Propriété intellectuelle, Publication

Condamnation pour la reprise d’une œuvre utilisant la technique du « dripping »

Le Tribunal judiciaire de Paris le 27 mars 2024 a reconnu, à l’auteur d’une œuvre utilisant la technique du « dripping », la possibilité d’en revendiquer la qualité d’auteur, tout en considérant que, faute de reproduction des caractéristiques essentielles de l’œuvre, il ne pouvait y avoir contrefaçon. Lire la suite L’allégation du délit de contrefaçon Condamnation pour la reprise d’une œuvre utilisant la technique du « dripping » L’artiste Zevs est l’auteur de l’œuvre « Liquidated Google », représentant le logo de la marque Google dont les lettres dégoulinent. Cette œuvre utilise la technique du dripping en street art. Le dripping consiste à laisser couler ou goutter de la peinture sur des toiles ou surfaces horizontales. Les faits litigieux concernent la commercialisation par Givenchy d’un tee-shirt représentant la marque verbale « Givenchy » dont les lettres dégoulinent. L’artiste reprochait à Givenchy d’avoir repris les caractéristiques originales de son œuvre « Liquidated Google ». L’artiste va voir son œuvre « Liquidated Google » protégée par le droit d’auteur. Néanmoins, le Tribunal ne va pas caractériser le délit de contrefaçon. Il va cependant condamner la société Givenchy à titre subsidiaire pour parasitisme et concurrence déloyale. La protection par le droit d’auteur d’une œuvre utilisant la technique du « dripping » Condamnation pour la reprise d’une œuvre utilisant la technique du « dripping » C’est uniquement sous condition d’originalité, définie comme l’empreinte de la personnalité de l’auteur, qu’une personne peut revendiquer la protection de sa création au titre du droit d’auteur. Selon Givenchy le fait pour une coulure de dégouliner est un phénomène naturel non appropriable qui exclurait de la protection par le droit d’auteur l’œuvre utilisant la technique du « dripping ». Cependant, l’artiste a réussi à démontrer l’originalité de son œuvre utilisant la technique du « dripping ». Il a mis en avant l’existence de choix esthétiques libres, arbitraires et d’efforts créatifs : coulures découlant de chaque lettre dans le sens de la gravité, coulures irrégulières reprenant les couleurs de chaque lettre et coulures de longueurs différentes. Retenant l’originalité de l’œuvre de Zevs, le tribunal a néanmoins jugé qu’il n’y avait pas contrefaçon en l’espèce, considérant que les caractéristiques originales de l’œuvre n’étaient pas reproduites par Givenchy, le logotype et les couleurs utilisés étant différents. La condamnation pour parasitisme et concurrence déloyale Condamnation pour la reprise d’une œuvre utilisant la technique du « dripping » Le parasitisme consiste pour un opérateur économique à se placer dans le sillage d’un autre afin d’en tirer profit de son savoir-faire, sa notoriété acquise ou ses investissements. Or, la société a représenté sa marque avec des broderies de même couleur que chaque lettre, destinées à créer un effet de coulures. Elle s’est directement inspirée des créations de Zevs.  Ainsi, le Tribunal a jugé qu’il y avait parasitisme sans même la reproduction des caractéristiques originales de l’œuvre “Liquidated Google”. La concurrence déloyale est le fait pour un signe ou un produit d’être reproduit. Cette reproduction doit être à l’origine d’un risque de confusion sur l’origine du produit dans l’esprit de la clientèle.  Le Tribunal estime que la commercialisation des tee-shirts crée une confusion pour le consommateur de produit de luxe avec les créations de l’artiste. Le fait que les marques de luxe s’associent régulièrement à des artistes pour leurs créations justifie cette idée. Ainsi, le Tribunal condamne Givenchy à payer 30 000 euros à l’artiste à titre de dommages et intérêts. Avec la collaboration de Célia Prot, stagiaire, étudiante en Master 2 Droit européen du marché et de la régulation à l’Université Paris Panthéon Assas. Created by potrace 1.16, written by Peter Selinger 2001-2019 Marie Soulez Avocate, Directrice du département Propriété intellectuelle Contentieux Marie Soulez Avocate, Directrice du département Propriété intellectuelle Contentieux Avocate à la Cour d’appel de Paris depuis 2006, titulaire d’un DEA de droit de la communication (Paris II), elle a rejoint le cabinet Lexing Alain Bensoussan Avocats en 2007. Marie Soulez est titulaire du certificat de spécialisation en droit de la propriété intellectuelle, avec la qualification spécifique « droit de la propriété littéraire et artistique ». Elle a développé une pratique de très haut niveau dans tous les domaines du droit des nouvelles technologies de l’information et de la communication. Marie Soulez est directrice du département Propriété intellectuelle Contentieux. Phone:+33 (0)7 85 53 57 52 Email:marie-soulez@lexing.law Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

Actualités

Nouvelle-Zélande : le cabinet Jackson Russell rejoint le réseau international Lexing®

Nouvelle-Zélande : le cabinet Jackson Russell rejoint le réseau international Lexing® Nous sommes fiers d’annoncer l’arrivée du cabinet néo-zélandais Jackson Russell au sein du réseau Lexing. Avec ce nouveau membre, le réseau Lexing, présent dans près de 40 pays dans le monde, renforce ainsi sa présence en Océanie. Lire la suite Nouvelle Zélande : Jackson Russell rejoint le réseau international Lexing® Jackson Russell est un cabinet d’avocats réputé, établi de longue date à Auckland, en Nouvelle-Zélande. Le cabinet fournit des prestations juridiques à sa clientèle constituée de sociétés cotées en bourse et d’entreprises à forte croissance. Jackson Russell est spécialisé dans le droit des technologies, des médias et des télécommunications (TMT), le droit de la protection des données à caractère personnel, ainsi que dans la protection et la valorisation des droits de propriété intellectuelle. Il sera représenté au sein du réseau par Maître David Alizade. David Alizade David Alizade David Alizade Fort de sa solide expérience en cabinet et en entreprise, David Alizade dirige l’équipe Médias et Télécommunications et Propriété Intellectuelle de Jackson Russell. Avant de rejoindre Jackson Russell, David a acquis une forte expérience internationale en étant notamment associé dans un cabinet d’avocats au Royaume-Uni. David accompagne aussi bien les sociétés cotées en bourse que les entreprises à forte croissance. Ses clients apprécient son approche pragmatique du droit, axée sur les affaires, ainsi que sa connaissance approfondie des métiers qui y sont associés. Il est inscrit au barreau de Nouvelle-Zélande. Il parle couramment le français. Bienvenue au sein du Réseau international Lexing® ! A PROPOS DU RESEAU LEXING® Le réseau Lexing® compte actuellement près d’une quarantaine de membres sur les 5 continents. Créé à l’initiative d’Alain Bensoussan, il permet aux multinationales de bénéficier de l’assistance d’avocats chevronnés du monde entier ayant une compétence établie dans le domaine des nouvelles technologies dans leurs pays respectifs. Les avocats de Lexing® partagent une approche commune au sein du réseau qui leur permet de travailler ensemble de manière transparente afin d’offrir aux clients une solution globale, sur mesure et cohérente avec les règles juridiques de tous les pays. Pour en savoir plus : https://lexing.network/. Frédéric Forster    

Marque de renommée
Actualités, Articles, Marques et noms de domaine, Publication

Marques : la renommée vainc la parodie

Le Tribunal Judiciaire de Paris a récemment tranché dans l’affaire opposant les marques de Louis Vuitton au signe Pooey Puitton. (TJ Paris, 25 avril 2024, n° 19-01735) : la marque de renommée vainc celle de parodie ! Dans cette affaire, la renommée de la marque emblématique de la maroquinerie a été confrontée à un « clin d’œil » troublant. Toutefois, malgré des arguments de défenses élaborées, le tribunal a statué en faveur de la marque de renommée Louis Vuitton. Lire la suite L’exception de parodie, applicable en droit des marques ? La marque de renommée vainc la parodie Le signe Pooey Puitton désignait une mallette ludique destinée aux enfants, renfermant des ingrédients pour créer du « slime », une matière gluante et modelable. Cette mallette était ornée des motifs floraux imitant le célèbre logo distinctif de la marque Louis Vuitton. Sur le fondement de sa marque de renommée Louis Vuitton et de son célèbre logo, la maison française de luxe a agi en contrefaçon. Les défenderesses ont notamment invoqué une version de l’exception de parodie en droit des marques, arguant que la mallette était un jouet au design amusant destiné aux enfants. Elles ont ainsi affirmé que les parents achetant cette mallette pour leurs enfants y percevraient un « clin d’œil » à la marque Louis Vuitton, sans pour autant établir de lien économique entre le produit et la société Louis Vuitton. Aussi, selon elles, les produits comparés – de la maroquinerie de luxe d’un côté, un jouet de l’autre – diffèrent par leur nature, fonction et destination, et ne sont pas commercialisés dans les mêmes circuits. L’absence d’exception de parodie en droit des marques La marque de renommée vainc la parodie Malgré cette tentative de défense, le tribunal n’a pas retenu ces arguments mettant en avant deux points principaux : • l’inexistence d’une « exception de parodie» quant à l’utilisation d’un signe à des fins purement commerciales ; • la qualification des parodies de marques et autres « clins d’œil », comme tentative de se placer dans le sillage de la marque de renommée. Ainsi, cette affaire permet au tribunal de réaffirmer la protection accrue des marques de renommées et de mettre en garde contre les tentatives d’exploitation commerciale de signes parodiques. L’importance croissante des médias sociaux en droit des marques La marque de renommée vainc la parodie Il est finalement intéressant de noter que le Tribunal a accordé une grande importance aux extraits vidéos YouTube fournis par la demanderesse. Ces vidéos montrent une YouTubeuse présentant le jouet litigieux comme étant évocateur de la célèbre marque de luxe Louis Vuitton, démontrant ainsi le lien dans l’esprit du public et établissant l’existence d’une atteinte caractérisée. Une telle décision souligne ainsi la nécessité pour les entreprises de surveiller attentivement leur image en ligne. Il convient également de retenir que le contenu d’influence sur les réseaux sociaux s’avère être un excellent moyen de preuve pour la démonstration d’un risque de confusion ou de la renommée d’une marque. Created by potrace 1.16, written by Peter Selinger 2001-2019 Anne-Sophie Cantreau Avocate, Directrice du département Propriété industrielle conseil Anne-Sophie Cantreau Avocate, Directrice du département Propriété industrielle conseil Avocate à la Cour d’appel de Paris, Anne-Sophie Cantreau dirige le département Propriété Industrielle Conseil au sein du pôle Propriété intellectuelle. Elle intervient en droit des marques, des dessins et modèles, des noms de domaine, des signes d’origine et de qualité, des brevets. Phone:+33 (0)6 42 32 15 92 Email:anne-sophie-cantreau@lexing.law Clothilde Monnet Avocate, Département Propriété industrielle conseil Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus Ajoutez votre titre ici

Actualités, Articles, Propriété intellectuelle, Publication

La Sacem défend les droits des auteurs face aux IA génératives

Le 12 octobre 2023, la Sacem a annoncé qu’elle exercerait son droit d’opposition (« opt-out ») afin de contrôler l’utilisation de son répertoire par des Intelligences Artificielles (IA) génératives. Cette mesure vise à protéger les droits d’auteur dans un contexte où les technologies d’IA exploitent souvent des œuvres sans autorisation ni rémunération. Lire la suite Des droits d’auteur fragilisés par les fouilles de données des IA génératives La Sacem défend les droits des auteurs face aux IA génératives Grâce à des IA génératives comme Boomy et MusicLM, l’utilisateur final entre des inputs et ces IA créent des contenus (les outputs) sur demande. Entre autres, elles peuvent « imiter » la voix de personnalités notoires ou encore « composer » des musiques. Or, obtenir de tels résultats suppose l’entraînement des IA génératives, qui se traduit par des fouilles de données (« data-mining »). Ces données incluent des œuvres protégées par des droits d’auteur. Bien souvent, les IA génératives exploitent ces œuvres sans l’accord des auteurs et sans rémunération des ayants-droits. Ceci affecte notamment le droit de reproduction de l’auteur (ou de ses ayants-droits). En d’autres termes, les titulaires des droits d’auteurs ne peuvent plus autoriser ou interdire effectivement la reprise de l’œuvre à l’identique par un tiers. Ce phénomène touchait les œuvres du répertoire de la Sacem. En effet, les fournisseurs d’IA génératives manquaient de transparence quant à leurs pratiques de data-mining. Le droit d’opposition de la Sacem s’inscrit dans un contexte d’encadrement des fouilles de données La Sacem défend les droits des auteurs face aux IA génératives Deux étapes récentes ont contribué à protéger les droits d’auteur face au data-mining des IA génératives. D’une part, l’ordonnance n°2021-1518 a transposé la directive [UE] 2019/790 dans l’article L.122-5-3 du Code de la propriété intellectuelle. Comme le stipule cet article, certains organismes peuvent effectuer des fouilles de données pour des recherches scientifiques sur des œuvres obtenues licitement. Si ces conditions sont remplies, l’autorisation de l’auteur est sans importance, ce qui ébranle son droit de reproduction. Néanmoins, pour toutes les fouilles de données réalisées à d’autres fins et par d’autres personnes, l’auteur dispose d’un outil puissant. Il s’agit du droit d’opposition, en vertu duquel l’auteur peut s’opposer, notamment, au data-mining de ses œuvres. La Sacem défendant l’intérêt collectif des artistes musicaux et gérant leurs droits, elle peut exercer son droit d’opt-out. D’autre part, dans un communiqué de presse de 2023, la SACD a donné des pistes pour « une IA éthique ». La SACD a proposé cinq principes visant à protéger les droits d’auteur et droits voisins. Elle exige notamment aux IA de faire preuve de transparence dans leur utilisation des œuvres. Surtout, elle insiste sur l’importance d’un droit d’opposition que ses auteurs membres pourront exercer afin de défendre leurs droits. La Sacem reprend la philosophie de la SACD, souhaitant une IA « vertueuse, transparente et équitable ». À la différence de la SACD, la Sacem exerce son opt-out d’office, pour toutes les œuvres de son répertoire. Le droit d’opposition de la Sacem, une mesure protectrice des droits d’auteur La Sacem défend les droits des auteurs face aux IA génératives La Sacem possède un répertoire considérable de plus d’une centaine de millions d’œuvres musicales. En exerçant son droit d’opposition, la Sacem interdit, en principe, l’accès à toutes ces œuvres par les IA génératives. En conséquence, les œuvres répertoriées à la Sacem ne peuvent faire l’objet de data-mining qu’à l’issue d’une autorisation. Ceci implique des négociations dont découlera une rémunération des auteurs. Pour autant, la Sacem affirme vouloir concilier le développement des IA avec les droits d’auteur. Cette conciliation semble dépendre du niveau de transparence dont feront preuve les fournisseurs d’IA et de la lourdeur des éventuelles sanctions judiciaires. Enfin, la souplesse des négociations reste incertaine. Ainsi, la Sacem ouvre concrètement la voie pour une protection accrue des droits d’auteur face au data-mining. Seulement, il appartiendra aux entités législatives, administratives et judiciaires d’assurer l’effectivité de cette protection. Avec la collaboration de Oxana Karlick, stagiaire, étudiante en 2e année de Licence de droit à l’Université Paris Panthéon-Assas. Created by potrace 1.16, written by Peter Selinger 2001-2019 Rébecca Véricel Avocate, Directeur d’activité au sein du Pôle Propriété intellectuelle     Rébecca Véricel Avocate, Directeur d’activité au sein du Pôle Propriété intellectuelle Avocate à la Cour d’appel de Paris, Rébecca Véricel est Directeur d’activité au sein du Pôle Propriété intellectuelle, elle intervient dans les domaines du conseil et du contentieux, principalement en droit de la propriété intellectuelle, ainsi que dans les domaines associés. Phone:+33 (0)6 74 48 64 16 Email:rebecca-vericel@lexing.law     Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

CNEWS le 3 juin 2024
Actualités, Evénement, Revue de presse

Virginie Bensoussan-Brulé invitée de CNEWS le 3 juin 2024

Virginie Benssoussan-Brulé était l’invitée du journal 180 Minutes Info de CNEWS du 3 juin 2024. Conviée à apporter un éclairage juridique sur des sujets d’actualité, elle répondait aux questions de Nelly Daynac. Le journal 180 Minutes Info de CNEWS du 3 juin 2024. Created by potrace 1.16, written by Peter Selinger 2001-2019 Virginie Bensoussan-Brulé Avocat, Directeur du pôle Contentieux numérique Virginie Bensoussan-Brulé Avocat, Directeur du pôle Contentieux numérique Avocate à la Cour d’appel de Paris depuis 2006, titulaire d’un DESS en contentieux national, européen et international (Paris V) et d’un DESS en droit du commerce électronique (Paris V), Virginie Bensoussan-Brulé a rejoint le cabinet Lexing Alain Bensoussan Avocats en 2006. Virginie Bensoussan-Brulé est titulaire du certificat de spécialisation en droit pénal, avec la qualification spécifique droit de la presse. Elle dirige le pôle Contentieux numérique, qui comprend quatre départements .. Phone:+33 (0)6 42 31 85 29 Email:virginie-bensoussan-brule@lexing.law Pour en apprendre davantage À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

best lawyers 2025
Actualités, Vie du Cabinet

Lexing Alain Bensoussan Avocats à l’honneur du Best Lawyers 2025

La revue américaine Best Lawyers vient de rendre public son classement 2025 des meilleurs avocats d’affaires. Plusieurs avocats du cabinet y sont une nouvelle fois reconnus. Best Lawyers a publié le XX juin 2024 son classement 2025 des avocats d’affaires français reconnus par leurs pairs dans leurs catégories d’expertise respectives. Nous sommes heureux et fiers d’annoncer que comme chaque année depuis 16 ans, plusieurs avocats du cabinet Lexing Alain Bensoussan Avocats sont reconnus dans plusieurs catégories Lire la suite Alain Bensoussan : « Information Technology Law »,  « Privacy and Data Security Law » et « Technology Law » ; Jérémy Bensoussan : « Technology Law » ; Virginie Bensoussan-Brulé : « Privacy and Data Security Law » ; Céline Avignon : «Privacy and Data Security Law » ; Katharina Berbett : « Information Technology Law » ; Virginie Brunot : « Intellectual Property Law » ; Anne-Sophie Cantreau : « Intellectual Property Law» ; Frédéric Forster : « Technology Law » ; Alexandra Massaux : « Information Technology Law » ; Marie-Adélaïde de Montlivault-Jacquot : « Litigation » et  « Technology Law » . Anne Renard : « Information Technology Law » ; Benoit de Roquefeuil : « Information Technology Law », « Litigation » et «Technology Law» ; Marie Soulez : « Information Technology Law » ; Chloé Torres :  « Privacy and Data Security Law ». Nous tenons à remercier chaleureusement l’ensemble de nos confrères qui ont voté pour les avocats du cabinet. Mais également l’ensemble de nos équipes, sans lesquelles rien ne serait possible. Created by potrace 1.16, written by Peter Selinger 2001-2019 Pour en apprendre davantage À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

IA et balance des intérêts
Actualités, Afterwork, Evénement

Atelier en distanciel pour les DPO : « IA et balance des intérêts pour les traitements »

Tous à vos agendas ! Inscrivez-vous dès à présent à notre Atelier en distanciel : « IA et balance des intérêts pour les traitements » qui aura lieu le jeudi 4 juillet à 18h. Lire la suite IA et balance des intérêts pour les traitements Atelier pour DPO : « IA et balance des intérêts pour les traitements » La décision de Meta de retarder son projet de lancement de son IA à la suite de la plainte de NOYB, montre toutes les difficultés : • de développer une IA conformément au RGPD et • à fonder juridiquement de manière valide les traitements nécessaires sur l’intérêt légitime. Traitements en relation avec le développement d’une IA Atelier pour DPO : « IA et balance des intérêts pour les traitements » C’est dans cette optique que nous proposons aux abonnés à la Lettre du DPO de participer à un atelier pratique en distanciel : « Comment réaliser une balance des intérêts ? » Ne manquez pas cette occasion unique de renforcer votre expertise en matière d’IA et de protection des données ! Comment réaliser une balance des intérêts ? Atelier pour DPO : « IA et balance des intérêts pour les traitements » Pour les abonnés à la lettre du DPO, profitez en avant-première de notre offre d’atelier en distanciel : Date : 4 juillet 2024 Heure : 18h00 Thème : Balance des intérêts pour les traitements en relation avec le développement d’une IA Animé par : Céline Avignon Inscription : celine-avignon@alain-bensoussan.com Ne manquez pas cette occasion unique de renforcer votre expertise en matière d’IA et de protection des données !  Les avocats du cabinet Lexing vous donnent rendez-vous le 4 juillet à 18h. Created by potrace 1.16, written by Peter Selinger 2001-2019 Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique Avocate à la Cour d’appel de Paris, Céline Avignon dirige le département Publicité et Marketing électronique du cabinet dont l’objectif est de répondre de manière opérationnelle aux attentes des métiers des entreprises qui opèrent leur transformation digitale, optent pour l’ominicanalité et définissent une stratégie customer centric en abandonnant leur modes de fonctionnement traditionnels. Céline Avignon est nommée Best Lawyer dans les catégories « Advertising Law » et « Privacy and Data Security Law » des éditions 2024 et 2023 du classement de la revue américaine « Best Lawyers ». Phone:+33 (0)6 74 40 80 33 Email:celine-avignon@lexing.law Pour en apprendre davantage À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale… Lire plus

Actualités, Articles, Internet contentieux, Publication

Plainte contre la plateforme Temu pour non-conformité avec le DSA

L’UFC que choisir dépose plainte contre la plateforme Temu sur la base du Digital Services Act (ci-après « DSA »). Temu est un site internet chinois en activité depuis 2003 et dédié au commerce en ligne. La plateforme compatibilise près de 75 millions d’utilisateurs mensuels au sein de l’Union européenne. C’est la première fois qu’une association de consommateurs porte plainte devant l’Arcom au titre du DSA. Lire la suite Une plainte sur la base du DSA Plainte contre la plateforme Temu pour non-conformité avec le DSA Le DSA est entré en vigueur le 16 novembre 2022. Ses obligations sont contraignantes depuis le 17 février 2024 pour les fournisseurs de services intermédiaires. Le DSA vise à protéger les utilisateurs en ligne contre les contenus illicites, dangereux et préjudiciables. Le règlement DSA s’applique à l’ensemble des acteurs en ligne qui fournissent des services intermédiaires dans l’Union européenne. Les fournisseurs de services intermédiaires sont notamment soumis : • à des politiques de modération de leur contenu, de leurs systèmes de recommandation et de leur publicité ; • à des obligations visant à protéger les droits des utilisateurs, en particulier des mineurs ; • au respect du devoir de diligence et de vigilance des très grandes plateformes. Dans son communiqué de presse, l’UFC Que choisir déclare que le site chinois ne garantirait pas à ses « utilisateurs un environnement en ligne sûr, prévisible et digne de confiance ». En effet, la plateforme d’e-commerce présente de nombreuses incompatibilités avec le DSA. Les incompatibilités invoquées au soutien de la plainte contre la plateforme Temu Plainte contre la plateforme Temu pour non-conformité avec le DSA La traçabilité des vendeurs professionnels est un des premiers axes de contestation de la plainte contre la plateforme Temu. En effet, la plateforme «ne fournit pas une traçabilité suffisante des professionnels qui vendent des produits sur la plateforme ». Or, les consommateurs doivent pouvoir connaitre l’identité précise des vendeurs. Cette obligation du DSA a pour but de garantir aux consommateurs d’avoir un point de contact en cas de problème. C’est notamment le cas pour une réparation ou de remboursement. De plus, Temu est tenu d’expliquer le fonctionnement de ses systèmes de recommandations. La plateforme doit également justifier les critères de sélection pour l’affichage des produits individuels. A cela s’ajoute qu’en ne procédant à aucune vérification d’âge, Temu ne fournit pas de haut niveau de sécurité. La plateforme ne conditionne en effet pas l’accès au service à une vérification d’âge. En outre, l’association fait grief à Temu de manipuler les utilisateurs. La plateforme aurait recours à des techniques de « dark patterns ». Elle utiliserait en effet de faux compteurs de temps. De plus, la mention de prétendus stocks limités aurait pour objectif de créer un sentiment d’urgence. Il convient de rappeler que le non-respect d’une obligation du DSA peut conduire à une amende allant jusqu’à 6% du chiffre d’affaires. Les plateformes pourront également voir interdire leurs activités au sein du marché européen. Avec la collaboration de Célia Prot, stagiaire, étudiante en Master 2 Droit européen du marché et de la régulation à l’Université Paris Panthéon Assas. Created by potrace 1.16, written by Peter Selinger 2001-2019 Alexandra Massaux Avocate, Directrice du département Technologies émergentes Contentieux Alexandra Massaux Avocate, Directrice du département Technologies émergentes Contentieux Avocate à la Cour d’appel de Paris, Alexandra Massaux est directeur du département « Contentieux des technologies émergentes » au sein du Pôle Contentieux informatique. Son implication dans cette typologie de litiges lui a également permis de se forger une expérience solide du phasage et des processus qui président à la fourniture d’une solution informatique, des acteurs concernés et de la gestion, sur le plan organisationnel et humain, de projets. Alexandra Massaux est nommée Best Lawyer dans la catégorie « Information Technology Law » des éditions 2024 et 2023 du classement de la revue américaine « Best Lawyers ». Phone:+33 (0)6 47 21 37 26 Email:alexandra-massaux@lexing.law Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La Cobotique Juridique : ChatGPT & Droit Les intelligences artificielles génératives telles que ChatGPT constituent une révolution pour les professionnels du droit… Lire plus

Actualités, Afterwork, Evénement

Atelier en distanciel pour les DPO : « Rédaction d’une politique interne de l’IA »

Tous à vos agendas ! Inscrivez-vous dès à présent à notre Atelier en distanciel : « Rédaction d’une politique interne de l’IA ». Lire la suite Mettre en place une politique interne de l’IA Atelier pour les DPO : « Rédaction d’une politique interne de l’IA » L’intelligence artificielle (IA) soulève des questions cruciales en matière de protection des données. En tant que DPO, vous êtes en première ligne pour garantir la conformité et la sécurité des données de votre organisme.  Vous devez mettre en place une politique interne de l’IA  ou établir pour votre organisme des règles et des procédures strictes pour garantir un usage responsable de l’IA, en conformité avec le RGPD et les autres réglementations en vigueur ? Réservé aux abonnés à la lettre du DPO Atelier pour les DPO : « Rédaction d’une politique interne de l’IA » En tant qu’abonné à la lettre du DPO, profitez de l’offre qui vous est réservée d’atelier en distanciel pour vous accompagner dans la « Rédaction d’une politique interne de l’IA ». Cet atelier animé par Céline Avignon aura lieu le jeudi 27 juin 2024 à 18h00.  Les inscriptions se font par mél à celine-avignon@alain-bensoussan.com. Vous pouvez vous abonner à la Lettre Lexing du DPO sur https://www.lexing-editions.com/lettre-dpo/ Created by potrace 1.16, written by Peter Selinger 2001-2019 Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique Avocate à la Cour d’appel de Paris, Céline Avignon dirige le département Publicité et Marketing électronique du cabinet dont l’objectif est de répondre de manière opérationnelle aux attentes des métiers des entreprises qui opèrent leur transformation digitale, optent pour l’ominicanalité et définissent une stratégie customer centric en abandonnant leur modes de fonctionnement traditionnels. Céline Avignon est nommée Best Lawyer dans les catégories « Advertising Law » et « Privacy and Data Security Law » des éditions 2024 et 2023 du classement de la revue américaine « Best Lawyers ». Phone:+33 (0)6 74 40 80 33 Email:celine-avignon@lexing.law Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La Cobotique Juridique : ChatGPT & Droit Les intelligences artificielles génératives telles que ChatGPT constituent une révolution pour les professionnels du droit… Lire plus

Actualités, Articles, Propriété intellectuelle, Publication

Sharenting et respect du droit à l’image de l’enfant

Face à l’émergence du sharenting, soit le partage par les parents de photographies de leurs enfants sur les réseaux sociaux, le législateur est intervenu pour garantir une meilleure effectivité du droit à l’image de l’enfant et au respect de sa vie privée. Le droit à l’image de l’enfant, composante du droit à la vie privée, est en effet à l’ère du numérique, un problème d’une grande ampleur, devant faire l’objet d’une protection renforcée face à des pratiques de plus en plus généralisées (1). Le sharenting est issu de la fusion des termes share et parenting, qui signifient de manière respective « partager » et « parentalité ». Ce terme est défini par la Cnil comme « une pratique qui consiste, pour les parents, à publier des photos ou des vidéos de leurs enfants sur les réseaux sociaux » (2). Dans la mesure où les parents sont à l’origine de la surexposition de leur enfant dans le cyberespace, ils sont corrélativement défaillants dans la protection du droit à l’image de l’enfant. Déjà dans le rapport « Enfants et écrans : grandir dans le monde numérique » du Défenseur des droits de 2012 avait été souligné que « les violations du droit à l’image des enfants, composante du droit respect de leur vie privée, restent en pratique communément admises ». Prenant conscience de la nécessité d’encadrer un droit qui connaît un manque d’effectivité important, le législateur français a adopté la loi n°2024-120 du 19 février 2024 visant à garantir le respect du droit à l’image de l’enfant. Lire la suite Le droit à l’image de l’enfant Sharenting et respect du droit à l’image de l’enfant L’image d’une personne, composante du droit à la vie privée, est un attribut de sa personnalité qui bénéficie de la protection accordée par l’article 9 du Code civil. Principe de valeur constitutionnelle, découlant de l’article II de la Déclaration des droits de l’Homme et du Citoyen de 1789 (3), la vie privée est par ailleurs protégée par l’article 12 de la Déclaration universelle des droits de l’Homme de 1948, par l’article 8 de Convention de sauvegarde des droits de l’homme et des libertés fondamentales du Conseil de l’Europe et par la Chartre des droits fondamentaux de l’Union européenne de 2000. Concernant plus particulièrement l’enfant, l’article 16 de la Convention Internationale des Droits de l’Enfant dispose que « nul enfant ne fera l’objet d’immixtions arbitraires ou illégales » entre autres « dans sa vie privée » et que « l’enfant a droit à la protection de la loi contre de telles immixtions ou de telles atteintes ». La diffusion de l’image d’un enfant nécessite un consentement (4). L’exercice du droit à l’image de l’enfant avant la loi n°2024-120 Sharenting et respect du droit à l’image de l’enfant Le droit à l’image de l’enfant, bien qu’étant un attribut de sa personnalité, n’est pas concomitant avec son accès à la personnalité juridique. Aussi, avant que l’enfant atteigne l’âge nubile, les droits de la personnalité de l’enfant sont exercés par ses parents conjointement, lorsqu’ils sont titulaires de l’autorité parentale. La protection du droit à l’image de l’enfant incombe donc aux parents, ce qui peut être néfaste pour le respect de ce droit, notamment en période de généralisation du sharenting. En cas de différend sur la diffusion de contenus portant sur l’image de l’enfant par l’un de ses père et mère, c’est le juge judiciaire qui en application du droit commun et notamment l’article 9 du Code civil était compétent pour trancher. Or la jurisprudence n’était pas harmonisée sur la qualification, l’exercice du droit à l’image de l’enfant étant au gré des juridictions qualifié d’actes usuels (5) ou non usuels (6, 7 & 8), à savoir exercé par l’un des parents ou nécessairement par les deux. L’encadrement du sharenting par la loi n°2024-120 du 19 février 2024 Sharenting et respect du droit à l’image de l’enfant Une nouvelle étape dans la protection de l’enfant et de sa dignité, après la loi du sur les « enfants influenceurs », est offerte par la loi n°2024-120 du 19 février 2024 qui vise à « garantir le respect du droit à l’image des enfants » et accorder le droit positif français face à la banalisation du sharenting. Le législateur est venu élargir la définition de l’autorité parentale. L’article 371-1 du Code civil dans sa nouvelle rédaction prévoit qu’à l’ensemble de droits et de devoirs définissant l’autorité parentale et ayant pour finalité l’intérêt de l’enfant, s’ajoute la protection par les parents de la vie privée de leur enfant, dont le droit à l’image est une composante. Plusieurs mécanismes juridiques ont été mis en place par le législateur pour permettre une meilleure protection du droit à l’image de l’enfant. D’une part, la protection doit se faire dans le respect de l’article 9 du Code civil. Les parents, qui seuls consentent à l’utilisation de l’image de l’enfant, sont appelés à prendre en considération les opinions de l’enfant eu égard à « son âge et à son degré de maturité », selon la nouvelle rédaction de l’article 372-1 du Code civil. Le législateur a repris la formulation de l’article 12 de la Convention international des droits de l’enfant. La loi accorde également aux enfants le droit de contrôler et de limiter la diffusion de leur propre image en ligne. Ils ont le droit de demander la suppression ou la désactivation de tout contenu qui les concerne, et les entreprises sont tenues de répondre à ces demandes dans des délais spécifiés. Cette disposition donne aux enfants un plus grand contrôle sur leur présence en ligne et renforce leur autonomie numérique. Enfin, la loi du 19 février 2024 met l’accent sur la sensibilisation et l’éducation en matière de droit à l’image des enfants. Elle prévoit des campagnes de sensibilisation nationales visant à informer les parents, les enseignants et les enfants eux-mêmes sur leurs droits et responsabilités en matière d’image et de vie privée en ligne. Ces initiatives éducatives visent à renforcer la conscience collective autour de ces questions cruciales et à promouvoir des comportements responsables dans l’utilisation des médias numériques. D’autre part, le législateur offre un rôle accru au juge judiciaire

e-commerce et publicité digitale
Actualités, Articles, Fiscalité - Société, Publication

La directive VIDA : une transformation de la TVA ?

La Commission européenne a confirmé sa volonté de modernisation fiscale avec la directive « VAT in the Digital Age »  (Directive VIDA), le 8 décembre 2022 (1). En effet, l’e-commerce européen a enregistré une croissance de 11% sur l’année 2022 pour atteindre un chiffre d’affaires de 797 milliards d’euros en B to C (Business to Consumers). Au sein de l’Union européenne, la Taxe sur la Valeur Ajoutée (TVA) se présente comme un impôt indirect portant sur la consommation appliquée à une large gamme de biens et services. Elle se calcule à partir de la valeur ajoutée à chaque étape de la chaîne de production et de distribution. Lire la suite Un besoin de moderniser la TVA La directive VIDA : une transformation de la TVA ? Face aux évolutions technologiques, la directive VIDA concentre son action autour de trois axes majeurs de modernisation : • Axe 1 : tout d’abord, la modernisation des obligations déclaratives pour les entreprises par le biais de la mise en place d’obligations d’e-reporting et d’e-invoicing supplées de la facturation électronique. Le système est simplifié et sécurisé. • Axe 2 : ensuite, une adaptation aux plateformes du marché numérique est faite. En effet, les plateformes d’e-commerce ont la responsabilité de collecter la TVA ce qui a pour but de réguler le marché. • Axe 3 : enfin, l’optimisation des enregistrements TVA au sein de l’Union européenne dans le but de faciliter les démarches administratives des entreprises opérant dans plusieurs Etats-membres (système d’enregistrement unique). Ces trois axes ont pour objectif de créer un système plus efficace, plus transparent et plus équitable pour les entreprises et les consommateurs européens. Le calendrier de la directive VIDA La directive VIDA : une transformation de la TVA ? Depuis janvier 2024, il est possible pour les acteurs du e-commerce européen de bénéficier d’un processus de facturation électronique B to B (business to business) plus fluide. En effet, l’accord du client pour émettre ou transmettre une facturation électronique n’est plus nécessaire. En outre, il est désormais possible pour les Etats-membres de mettre en place des obligations d’e-invoicing sans demander au préalable une dérogation à la Commission européenne. En revanche, celle-ci doit s’accompagner d’une obligation d’e-reporting. Les entreprises peuvent anticiper l’entrée en vigueur de la directive dans leurs États respectifs grâce à ces deux options. À partir de janvier 2025, la directive VIDA simplifiera les démarches pour les transactions internationales. En effet, avec l’adoption du guichet unique TVA IOSS-OSS, le régime des stocks sous contrat de dépôt sera supprimé et les transactions seront plus amplement sécurisées. Aussi les plateformes marketplaces agiront à la fois comme acheteurs et revendeurs. Cette nouvelle approche garantit une meilleure traçabilité et une meilleure transparence. Elle vise également à renforcer la confiance des acteurs européens du e-commerce. En vue d’accroître la transparence des transactions en ligne, la directive VIDA imposera, à partir de janvier 2028, une obligation d’e-reporting pour les flux intracommunautaires. Les États-membres auront également la possibilité d’étendre cette obligation aux flux domestiques, s’ils le jugent nécessaire. Par conséquent, cette directive et ses obligations permettent aux autorités fiscales de mieux suivre et contrôler les mouvements de biens et de services au sein de l’Union européenne. Elle contribue ainsi à lutter contre la fraude fiscale et à garantir une concurrence loyale. Et en France, la facturation électronique ? La directive VIDA : une transformation de la TVA ? À l’échelle française, dans un communiqué de presse du 28 juillet 2023, le gouvernement a annoncé le report du calendrier (2) de mise en œuvre de la généralisation de la facturation électronique. Initialement prévue au 1er juillet 2024, l’obligation pour les entreprises établies en France d’émettre et de recevoir des factures électroniques s’appliquera progressivement à partir du 1er septembre 2026. Ce nouveau calendrier a été précisé dans un amendement (n° I-5395) au projet de loi de finances (PLF) (3) pour 2024, publié le 17 octobre 2023. Conclusion La directive VIDA : une transformation de la TVA ? Finalement, la directive VIDA tend à transformer le système fiscal européen pour le rendre plus apte à répondre aux enjeux nouveaux. Cette directive s’inscrit dans une volonté certaine de la Commission européenne de moderniser et d’adapter sa fiscalité à l’ère du numérique. En favorisant la transparence, l’efficacité et l’équité, elle vise à stimuler la croissance du e-commerce et à protéger les intérêts des acteurs européens. Directive VIDA : « VAT in Digital Age », 52022PC0701 – EN – EUR-Lex, 8 décembre 2022. La généralisation de la facturation électronique reportée au 1er septembre 2026, 10 février 2023. Amendement n° I-5395 au Projet de Loi de Finances 2024, 17 octobre 2023. Avec la collaboration de Sofia Kedim, stagiaire, étudiante en première année de Droit à l’Université Paris-Saclay. Created by potrace 1.16, written by Peter Selinger 2001-2019 Jennifer Bessi Avocate, Directrice du département Sociétés et Fiscalité du numérique Jennifer Bessi Avocate, Directrice du département Sociétés et Fiscalité du numérique Avocate à la Cour d’appel de Paris, Jennifer Bessi est directrice du département Sociétés et Fiscalité au sein du pôle Droit de l’entreprise. Elle intervient tant en conseil qu’en contentieux en droit des sociétés, droit public concernant tous les aspects de la fiscalité qu’elle soit personnelle, patrimoniale, internationale, et ce dans tous les secteurs d’activité qu’ils soient traditionnels ou numériques. Phone:+33 (0)7 61 56 83 13 Email:jennifer-bessi@lexing.law Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La Cobotique Juridique : ChatGPT & Droit Les intelligences artificielles génératives telles que ChatGPT constituent une révolution pour les professionnels du droit… Lire plus

Actualités, Evénement, Formation

Formation : l’IA pour les juristes du monde de la mode et du textile

Céline Avignon anime le 25 juin 2024 une journée de formation en présentiel ou distanciel sur l’intelligence artificielle pour les juristes du monde de la mode et du textile organisée la Fédération Maille, Lingerie et Balnéaire.  Lire la suite L’IA pour les juristes du monde de la mode et du textile Formation : l’IA pour les juristes du monde de la mode et du textile Cette formation ouverte à tous les juristes a pour objectif opérationnel de permettre aux participants d’acquérir les connaissances pour bien comprendre le fonctionnement de l’IA générative pour pouvoir leur permettre, dans leurs missions quotidiennes, d’exploiter tous les avantages de cette technologie en minimisant les risques inhérents à cette dernière. L’après-midi sera consacré à des cas pratiques empruntés à l’activité quotidienne d’un juriste. Formation de la Fédération Maille, Lingerie et Balnéaire Formation : l’IA pour les juristes du monde de la mode et du textile INTRODUCTION • Défis • Actualités • Tendances INTELLIGENCE ARTIFICIELLE : PRÉSENTATION ET ÉVOLUTION • Histoire et évolution de l’IA • L’IA générative • Principaux avantages et risques de l’IA générative L’UTILISATION DE L’IA GÉNÉRATIVE DANS LE DOMAINE JURIDIQUE • État des lieu • Risques et inquiétudes • Opportunités : la cobotique juridique Cliquez ici pour voir le programme et vous inscrire auprès de la Fédération Maille, Lingerie et Balnéaire.  Created by potrace 1.16, written by Peter Selinger 2001-2019 Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique Céline Avignon Avocate, Directrice du département Publicité et Marketing électronique Avocate à la Cour d’appel de Paris, Céline Avignon dirige le département Publicité et Marketing électronique du cabinet dont l’objectif est de répondre de manière opérationnelle aux attentes des métiers des entreprises qui opèrent leur transformation digitale, optent pour l’ominicanalité et définissent une stratégie customer centric en abandonnant leur modes de fonctionnement traditionnels. Céline Avignon est nommée Best Lawyer dans les catégories « Advertising Law » et « Privacy and Data Security Law » des éditions 2024 et 2023 du classement de la revue américaine « Best Lawyers ». Phone:+33 (0)6 74 40 80 33 Email:celine-avignon@lexing.law Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La Cobotique Juridique : ChatGPT & Droit Les intelligences artificielles génératives telles que ChatGPT constituent une révolution pour les professionnels du droit… Lire plus

Vidéoprotection sur la voie publique
Actualités, Articles, Données personnelles, Données personnelles, Publication

Vidéoprotection sur la voie publique : quelles sont les autorités publiques compétentes ?

L’objectif de cet article est de présenter quelles sont les autorités publiques compétentes pouvant mettre en œuvre un système de vidéoprotection sur la voie publique. Lire la suite Les dispositions de l’article L.251-2 du CSI Vidéoprotection sur la voie publique : quelles sont les autorités publiques compétentes ? L’article L.251-2 du Code de la sécurité intérieure, dans sa version issue de la loi du 19 mai 2023 (dite « loi Jeux Olympiques 2024 ») (1), dispose en son premier paragraphe que : « Des systèmes de vidéoprotection peuvent être mis en œuvre sur la voie publique par les autorités publiques compétentes aux fins d’assurer : La protection des bâtiments et installations publics et de leurs abords ; La sauvegarde des installations utiles à la défense nationale ; La régulation des flux de transport ; La constatation des infractions aux règles de la circulation ; La prévention des atteintes à la sécurité des personnes et des biens dans des lieux particulièrement exposés à des risques d’agression, de vol ou de trafic de stupéfiants ainsi que la prévention, dans des zones particulièrement exposées à ces infractions, des fraudes douanières prévues par le dernier alinéa de l’article 414 du Code des douanes et des délits prévus à l’article 415 du même code portant sur des fonds provenant de ces mêmes infractions ; 6. La prévention d’actes de terrorisme, dans les conditions prévues au chapitre III du titre II du présent livre ; 7. La prévention des risques naturels ou technologiques ; 8. Le secours aux personnes et la défense contre l’incendie ; 9. La sécurité des installations accueillant du public dans les parcs d’attraction ; 10. Le respect de l’obligation d’être couvert, pour faire circuler un véhicule terrestre à moteur, par une assurance garantissant la responsabilité civile ; 11. La prévention et la constatation des infractions relatives à l’abandon d’ordures, de déchets, de matériaux ou d’autres objets. » L’installation d’un système de vidéoprotection sur la voie publique pour les finalités susvisées est donc réservée aux autorités publiques compétentes. Les précisions apportées par l’instruction émise le 20 mars 2024 du ministre de l’Intérieur et des Outre-mer sur la mise en conformité du régime de vidéoprotection avec le droit européen relatif à la protection des données (2) permet de faire le point sur cette notion et ce qu’elle recouvre. Les définitions antérieures des autorités publiques compétentes Vidéoprotection sur la voie publique : quelles sont les autorités publiques compétentes ? La circulaire du 22 octobre 1996 prise pour application l’article 10 de la loi du 21 janvier 1995 d’orientation et de programmation relative à la sécurité (dite « loi LOPS » et abrogée depuis) (3) qui a instauré le régime légal de la vidéoprotection (à l’époque vidéosurveillance) a donné une première définition des autorités publiques compétentes. Dans son article 2.3.1.1 « Mise en œuvre par « une autorité publique compétente », ou son concessionnaire », cette circulaire précise que cette notion peut désigner « le préfet et le maire, mais également les responsables d’établissements publics (par exemple SNCF, RATP, hôpitaux) ou services publics (par exemple établissements pénitentiaires) et certains concessionnaires, tels que les sociétés concessionnaires d’autoroutes ». Ce champ d’application, qui apparaît de prime abord très étendu, s’explique par le fait que l’article 10 de la loi LOPS qui visait deux catégories de finalités : • des finalités relatives à la sauvegarde ou à la protection de bâtiments et d’installations ; • des finalités relatives à la prévention et à la constatation d’infractions pénales. C’est en fonction de ces deux catégories de finalités que la circulaire du 22 octobre 1996 a défini les autorités publiques compétentes. Le second paragraphe de l’article 2.3.1.1 précité précise en effet que « le critère d’admission est la capacité à exercer un pouvoir de police, pour les systèmes ayant pour finalité la régulation du trafic routier ou la prévention d’infractions aux règles de la circulation, ou la nécessité de sauvegarder la protection des bâtiments et installations publics et de leurs abords, ainsi que la sauvegarde des installations utiles à la défense nationale pour les autres. » La désignation des autorités publiques compétentes en fonction des finalités poursuivies par le système de vidéoprotection installé sur la voie publique a été reprise dans la circulaire du 12 mars 2009 (4) relative aux conditions de déploiement des systèmes de vidéoprotection. Cette circulaire rappelle que la compétence des autorités publiques pour installer un système de vidéoprotection s’apprécie au regard de la finalité poursuivie et cite comme exemples l’autorité qui occupe un bâtiment, la personne qui en est propriétaire et celle qui exerce le pouvoir de police générale ou un pouvoir de police spéciale dans le lieu en cause. Elle précise que « cette personne compétente peut revêtir des formes juridiques variées. Il peut s’agir d’un préfet, d’un maire, du président d’une intercommunalité, du dirigeant d’un établissement public (RATP, hôpital) ou d’un service (établissements pénitentiaires). Les sociétés concessionnaires d’autoroutes peuvent également être regardées comme telles en raison de la délégation qui leur est consentie ». Il ressortait ainsi des circulaires du 22 octobre 1996 (dont l’article 2.3.1.1 visait déjà les autorités publiques compétentes ou leur « concessionnaire ») et du 12 mars 2009 que peuvent être considérées comme des autorités publiques compétentes des personnes morales de droit privé comme les concessionnaires d’autoroutes. La situation des collectivités territoriales Vidéoprotection sur la voie publique : quelles sont les autorités publiques compétentes ? Pour les collectivités territoriales et leurs établissements publics, une clarification a été apportée par une instruction du 4 mars 2022 (5), prise à la suite de l’entrée en vigueur de la loi du 25 mai 2021 pour une sécurité globale préservant les libertés. Aux termes de cette instruction : • concernant les communes : au plan local, seuls le maire et le préfet du département disposent d’un pouvoir de police administrative générale et le maire est la première autorité publique compétente pour mettre en œuvre, sur son territoire communal, un dispositif de vidéoprotection de la voie publique ; • concernant les établissements publics de coopération intercommunale (EPCI) : les EPCI à fiscalité propre qui exercent la compétence relative aux

martketing
Actualités, Conférences Lexing, Evénement

Conférence Lexing 2024 Recourir à l’intelligence artificielle dans le secteur public

Anne Renard et Thomas Cantoni animent une Conférence Lexing intitulée « Recourir à l’intelligence artificielle dans le secteur public » le mercredi 12 juin 2024 de 9h30 à 11h30 en visioconférence.   L’objet de cette conférence est de présenter le déploiement progressif de l’intelligence artificielle dans les services publics, le cadre juridique du recours à cette technologie ainsi que les opportunités et les risques que celle-ci présente. Cette conférence sur l’intelligence artificielle dans le secteur public sera l’occasion de présenter : Lire la suite Les perspectives d’utilisation de l’IA par les acteurs publics Conférence 2024 « l’intelligence artificielle dans le secteur public » Les acteurs publics ont en effet recours aux technologies d’intelligence artificielle notamment en matière de gestion de la complexité administrative (instruction des dossiers, tri automatisé des courriers) de l’analyse d’images (expérimentation de la vidéoprotection « augmentée » instaurée par la loi n° 2023-380 du 19 mai 2023 dite « Jeux Olympiques 2024 ») et de services aux citoyens (recours aux « call bots », assistance dans l’identification des dispositifs d’aides) avec pour objectifs une automatisation intelligente des processus administratifs et une meilleure interaction avec les citoyens. Les conditions du développement de ces technologies, en notamment l’intelligence artificielle dans le secteur public,fait en outre l’objet d’études prospectives, notamment par la délégation à la prospective du Sénat qui consacre son programme de travail pour l’année 2024 sur le thème de « l’intelligence artificielle (IA) et l’avenir du service public », et d’expérimentations, notamment celle relative à l’usage d’une technologie d’intelligence artificielle générative dans les services publics lancée en octobre 2023 par la direction interministérielle de la transformation publique en lien avec la direction interministérielle du numérique. Le cadre juridique de l’intelligence artificielle Conférence 2024 « l’intelligence artificielle dans le secteur public » Le déploiement des technologies d’intelligence artificielle dans le secteur public en particulier, doit en effet se faire dans le respect : • de la réglementation relative à la protection des données à caractère personnel, notamment le RGPD et la loi Informatique et libertés, si l’utilisation de ces technologies implique le traitement de telles données ; • des exigences de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique en matière de transparence pour l’utilisation des algorithmes par les administrations ; • du futur « IA Act » européen. Les opportunités et les risques que représentent les systèmes d’IA Conférence 2024 « l’intelligence artificielle dans le secteur public » Dans ce cadre, seront présentés des cas d’usage de ces technologies par les acteurs publics, notamment pour mettre en place une automatisation intelligente des processus administratifs et ainsi libérer les agents de tâches fastidieuses et répétitives. Ces cas d’usages permettront également d’illustrer les risques que peuvent représenter les systèmes d’intelligence artificielle en matière d’atteinte aux droits et libertés des personnes et d’introduction de biais discriminatoires. Recourir à l’intelligence artificielle dans le secteur public Conférence Lexing 2024 Anne Renard, avocate Directrice du département Conformité et certification, et Thomas Cantoni, avocat Directeur du département Données personnelles Conseil, répondront à vos questions lors de la visioconférence « Recourir à l’intelligence artificielle dans le secteur public » du mercredi 12 juin 2024 de 9h30 à 11h30. Pour y assister, enregistrez-vous en renseignant les champs marqués d’un (*) : Created by potrace 1.16, written by Peter Selinger 2001-2019 Anne Renard Avocate, Directrice du département Conformité et certification Anne Renard Avocate, Directrice du département Conformité et certification Avocate à la Cour d’appel de Paris, Anne Renard est directrice du département Conformité et Certification : Conformité en matière de protection des données personnelles et Conseil en matière de conformité des organismes. Elle a été désignée déléguée à la protection des données (DPO) recommandée de la profession d’avocat par le Conseil National des Barreaux. Anne Renard est nommée Best Lawyer dans la catégorie « Information Technology Law » des éditions 2024 et 2023 du classement de la revue américaine « Best Lawyers ». Phone:+33 (0)6 74 10 44 24 Email:anne-renard@lexing.law Thomas Cantoni Avocat, Directeur du département Données personnelles. Conseil Thomas Cantoni Avocat, Directeur du département Données personnelles. Conseil Avocat à la Cour d’appel de Paris, Thomas Cantoni est directeur du département Données personnelles Conseil.. Il intervient dans le domaine de la conformité en matière de protection des données personnelles. Phone:+33 (0)7 62 49 97 22 Email:thomas-cantoni@lexing.law Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La Cobotique Juridique : ChatGPT & Droit Les intelligences artificielles génératives telles que ChatGPT constituent une révolution pour les professionnels du droit… Lire plus

Actualités, Articles, Publication, Santé

Parution du nouveau référentiel de certification HDS : quels changements ?

Vient d’être publié l’arrêté du 26 avril 2024 modifiant l’arrêté du 11 juin 2018 portant approbation du référentiel d’accréditation des organismes de certification et du référentiel de certification pour l’hébergement de données de santé à caractère personnel. Début 2022, cinq ans après la mise en œuvre de la certification HDS, la Délégation du Numérique en Santé (« DNS ») et l’Agence du Numérique en Santé (« ANS ») ont lancé une démarche de révision du référentiel de certification HDS (ci-après « nouveau référentiel de certification HDS ») (1). Ces instances se sont associées notamment à la Commission nationale de l’informatique et des libertés (« Cnil »), laquelle a rendu un avis favorable sur le projet de référentiel le 13 juillet dernier (2). En décembre 2023, l’ANS a soumis le projet d’arrêté « modifiant l’arrêté du 11 juin 2018 portant approbation du référentiel d’accréditation des organismes de certification et du référentiel de certification pour l’hébergement de données de santé à caractère personnel » à la Commission européenne (3). Nota bene : Seul le référentiel de certification pour l’hébergement de données de santé à caractère personnel (« référentiel de certification HDS ») nous intéressera dans la suite de nos développements. Ce référentiel HDS est à destination des hébergeurs et non des certificateurs comme le référentiel d’accréditation des organismes de certification. Lire la suite Le cadre juridique de ce référentiel Nouveau référentiel de certification HDS L’hébergement des données de santé à caractère personnel est encadré en France par les articles L.1111-8 et R.1111-8 et suivants du Code de la santé publique (« CSP »). Cette règlementation pose l’obligation d’être certifiée HDS pour toute personne qui : héberge sur support numérique des données de santé à caractère personnel recueillies à l’occasion d’activités de prévention, de diagnostic, de soins ou de suivi social et médico-social, pour le compte de personnes physiques ou morales à l’origine de la production ou du recueil de ces données ou pour le compte du patient lui-même. L’objectif de cette règlementation est de garantir aux usagers et aux professionnels de santé que les données de santé à caractère personnel, particulièrement protégées par le RGPD, confiées dans le cadre d’une prise en charge médicale, sont sécurisées. Les modifications apportées Nouveau référentiel de certification HDS Précisions sur l’activité 5 Pour mémoire, le périmètre des activités d’hébergement certifiées couvre la mise à disposition et le maintien en condition opérationnelle : des sites physiques permettant d’héberger l’infrastructure matérielle du système d’information utilisé pour le traitement des données de santé ; de l’infrastructure matérielle du système d’information utilisé pour le traitement de données de santé ; de l’infrastructure virtuelle du système d’information utilisé pour le traitement des données de santé ; de la plateforme d’hébergement d’applications du système d’information ; l’administration et l’exploitation du système d’information contenant les données de santé ; la sauvegarde des données de santé. L’un des objectifs du nouveau référentiel de certification HDS est de clarifier les activités pour lesquelles les hébergeurs ont obtenu la certification, en particulier l’activité 5 correspondant à « l’administration et l’exploitation du système d’information contenant les données de santé ». En effet, à ce jour, l’activité dite « d’administration et d’exploitation d’applications du système d’information (« SI ») de santé », correspondant à l’activité 5 de la certification HDS, n’a toujours pas été supprimée du périmètre de la certification, malgré les questionnements qu’elle suscite du fait notamment de son absence de définition. (4) Or, cette activité, relative à l’application métier, avait conduit de nombreux acteurs (éditeurs de logiciels, fabricants de dispositifs médicaux, etc.) à s’interroger sur la nécessité d’être certifiés. (5) Le nouveau référentiel de certification HDS propose une définition du champ d’application de l’activité 5 correspondant à « l’administration et l’exploitation du système d’information contenant les données de santé ». Selon cette définition, l’activité 5 recouvre : l’encadrement et la gestion des accès occasionnels des tiers mandatés par le client de l’organisation, par exemple, à des fins d’audit, d’expertise, de déploiement ou de maintenance, et qui ont accès via le Socle d’Infrastructure HDS à l’Application métier ; le maintien en condition de sécurité du Socle d’Infrastructure HDS et le centre de support au client ; et la tenue à jour de la documentation assurant la cohérence et la complétude des garanties de sécurité fournies par les différents acteurs participant à la mise en œuvre du service. Ainsi, certaines opérations exercées par des éditeurs de logiciels ou des fabricants de dispositifs médicaux (maintenance par exemple) se retrouveraient exclues du périmètre de l’obligation de certification HDS. A faire : L’hébergeur devra vérifier s’il exerce toujours l’activité d’ « administration et exploitation du système d’information contenant les données de santé » compte tenu de la nouvelle définition et amender le contrat le cas échéant. Nouvelles exigences du contrat HDS Le nouveau référentiel de certification HDS vise à clarifier les obligations contractuelles de l’hébergeur en intégrant les clauses obligatoires déjà prévues par l’article R.1111-11 du Code de la santé publique dans les contrats HDS. A faire : L’hébergeur devra auditer son contrat HDS pour s’assurer qu’il intègre les clauses obligatoires de l’article R.1111-11 du Code de la santé publique et, à défaut, amender le contrat pour qu’il reprenne l’ensemble de ces clauses obligatoires. Le nouveau référentiel de certification HDS vise également à améliorer la lisibilité des garanties apportées par l’hébergeur à chaque client faisant appel à ses services. Il impose à l’hébergeur HDS qu’il reproduise dans le contrat ses garanties et celles de sous-traitants éventuels. L’objectif est d’être transparent sur la participation réelle de chaque acteur à la sécurité des données confiées par le client et de standardiser la présentation des garanties mises en place par l’hébergeur permettant de couvrir toute défaillance éventuelle de sa part. A faire : L’hébergeur devra intégrer le tableau reproduit dans le nouveau référentiel de certification HDS listant les acteurs qui participent au traitement des données dans le cadre de la prestation HDS. Nouvelles exigences de transparence et d’hébergement dans l’EEE S’agissant des exigences de transparence, le nouveau référentiel de certification HDS s’inscrit dans une démarche de protection du client et des données de santé à caractère personnel qui sont confiées à

Actualités, Conférences Lexing, Evénement, Robot

Conférence Lexing 2024 IA et responsabilité dans le secteur privé

Jérémy Bensoussan anime une Conférence Lexing 2024 IA et responsabilité dans le secteur privé le mercredi 29 mai de 9h30 à 11h30 en visioconférence. Lire la suite La responsabilité, obstacle à l’IA ? Conférence Lexing 2024 IA et responsabilité dans le secteur privé D’après une enquête menée en 2020, la responsabilité figure parmi les trois principaux obstacles à l’utilisation de l’IA par les entreprises européennes. Les règles nationales existant en matière de responsabilité, notamment en ce qui concerne la responsabilité pour faute, ne sont pas adaptées pour traiter les actions en responsabilité dans le cas de dommages causés par des produits et services dotés d’IA. La Commission européenne a recensé les défis spécifiques que pose l’IA quant aux règles de responsabilité existantes. L’Europe s’est emparée de cette question Conférence Lexing 2024 IA et responsabilité dans le secteur privé La Commission propose pour la première fois une harmonisation ciblée des règles nationales en matière de responsabilité applicables à l’IA. L’objectif : « permettre aux victimes de dommages liés à l’IA d’obtenir plus facilement réparation ». « Ces nouvelles règles garantiront que les victimes bénéficient des mêmes normes de protection lorsqu’elles sont lésées par des produits ou services d’IA que si un préjudice était causé dans d’autres circonstances ». Ainsi, le projet de règlement sur les systèmes d’IA adopte une approche basée sur les risques, établissant ainsi les bases d’un premier cadre juridique pour l’IA. Cet encadrement repose sur la responsabilisation des entreprises, avec des exigences obligatoires pour atténuer les risques posés par l’IA pour les humains. L’IA face à la responsabilité civile Conférence Lexing 2024 IA et responsabilité dans le secteur privé Cependant, avec deux projets de directives publiés en septembre 2022, la Commission vise plus spécifiquement à instaurer de nouvelles règles en matière de responsabilité applicables à l’IA : 1. La proposition de directive relative à la responsabilité du fait des produits défectueux, 2. La proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle. La responsabilité « sans faute » des systèmes d’IA défectueux Conférence Lexing 2024 IA et responsabilité dans le secteur privé La proposition de directive sur la responsabilité du fait des produits abrogera la directive de 1985. Cette dernière ne couvrait pas les catégories de produits issus des nouvelles technologies numériques, comme les produits intelligents et l’IA. Elle simplifiera également le processus juridique permettant aux consommateurs, d’obtenir une réparation en cas de dommages corporels couvrant également « le préjudice, médicalement reconnu, causé à la santé psychologique». La responsabilité en cas de « comportement fautif » Conférence Lexing 2024 IA et responsabilité dans le secteur privé Le second projet de directive sur la responsabilité en matière d’IA propose les mêmes dispositions (présomption réfragable de causalité et accès aux éléments de preuve) lorsqu’un dommage a été causé par la faute du fournisseur de système d’IA. IA et responsabilité dans le secteur privé Conférence Lexing 2024 Faites donc le point grâce à la visioconférence qui aura lieu le mercredi 29 mai 2024 entre 9h30 et 11h30. Jérémy Bensoussan est avocat et ingénieur, directeur du département Droit de l’IA & Contentieux technologiques. Pour y assister, enregistrez-vous en renseignant les champs marqués d’un (*) :   Created by potrace 1.16, written by Peter Selinger 2001-2019   Jérémy Bensoussan Avocat, Directeur du département Droit de l’IA & Contentieux technologiques     Jérémy Bensoussan Avocat, Directeur du département Droit de l’IA & Contentieux technologiques Avocat à la Cour d’appel de Paris et ingénieur, Jérémy Bensoussan dirige le département Droit de l’IA & Contentieux technologiques. Il préside la Commission Vie privée et droits de l’homme numérique (Data Privacy) de l’Union internationale des avocats (UIA). Il est également Directeur adjoint de la stratégie digitale de l’UIA et membre de l’Incubateur du Barreau de Paris. Phone:+33 (0)6 38 17 91 60 Email:jeremy-bensoussan@lexing.law     Pour en apprendre davantage ChatGPT dans le monde du droit À l’aube d’une ère où l’intelligence artificielle (IA) est en passe de devenir un compagnon quotidien… Lire plus La Cobotique Juridique : ChatGPT & Droit Les intelligences artificielles génératives telles que ChatGPT constituent une révolution pour les professionnels du droit… Lire plus

Retour en haut