Le Digital Services Act : une avancée dans la régulation des contenus illicites en ligne

Contenus illicites

Le projet Digital Services Act permet une avancée notable dans la modération des contenus illicites en ligne.

Le Digital Services Act : une avancée dans la régulation des contenus illicites en ligne

Le 15 décembre 2020, la Commission européenne a adopté une proposition de Règlement pour un marché unique des services numériques (ci-après le « Digital Services Act ») (1) qui constitue une avancée considérable dans la lutte contre la publication et la diffusion des contenus illicites en ligne.

Cet objectif de modération des contenus passe par d’autres obligations imposées aux prestataires de services en ligne. Ainsi, la lutte contre les contenus illicites requiert nécessairement des impératifs de transparence, mais fait également peser un certain nombre d’obligations d’information sur les prestataires.

Les moyens mis en œuvre pour modérer ces contenus doivent respecter les droits et libertés fondamentaux, ainsi qu’en atteste l’article 7 qui reprend formellement la prohibition d’une surveillance généralisée, qui porterait une atteinte disproportionnée à la liberté d’expression, de réception d’information, mais aussi à la liberté d’entreprendre.

Ainsi bien qu’il ne soit pas imposé aux prestataires de rechercher activement les contenus illicites, le Digital Services Act comporte des nouveautés notables en matière de modération de contenus.

De nouvelles obligations en matière de modération de contenu

Le Digital Services Act définit un contenu illégal comme toute information, qui, en elle-même ou par référence à une activité (y compris la vente de produits ou la fourniture de services), n’est pas conforme avec le droit de l’Union européenne ou le droit national d’un État membre.

L’ensemble des prestataires de services intermédiaires est soumis à des obligations de modération des contenus illicites sur Internet. L’article 12 de la proposition de Règlement dispose que le prestataire doit clairement exprimer les moyens mis en œuvre pour modérer les contenus, que ce soit de manière automatisée (par algorithme) ou par des moyens humains.

Ainsi, tous les prestataires devront prendre des mesures objectives et proportionnées pour modérer les contenus illicites.

Le texte va plus loin en imposant à certains d’entre eux des obligations additionnelles.

Hébergeurs et plateformes en ligne

L’un des apports les plus notables est certainement la mise en place d’un système de notification des contenus illicites, pour les utilisateurs (article 14) qui doit leur permettre d’exprimer les raisons pour lesquelles ils pensent qu’un contenu est illicite. En effet, l’instauration de ce mécanisme fait peser une présomption de connaissance du contenu illicite sur l’hébergeur, qui sera alors responsable du contenu mis en ligne sur sa plateforme, et qui oblige donc l’hébergeur à agir rapidement pour supprimer ou désactiver l’accès au contenu illégal. Cette présomption est clairement posée au paragraphe 3 de l’article 14 précité :

« Notices that include the elements referred to in paragraph 2 shall be considered to give rise to actual knowledge or awareness for the purposes of Article 5 in respect of the specific item of information concerned »

En outre, il incombe à l’hébergeur d’informer l’utilisateur de la décision de retrait du contenu illicite ou de la désactivation de l’accès à ce contenu, en motivant les raisons de cette décision (portée territoriale, faits et circonstances, existence ou non d’algorithmes de motivation, possibilités de recours etc.).

Les plateformes en ligne

Les plateformes en ligne (à l’exception des micros et petites entreprises – article 16) sont soumises à des règles additionnelles.

Elles devront mettre en place un système gratuit de traitement interne destiné à accueillir les recours contre les décisions de suppression ou de désactivation d’un contenu (article 17).

La mise en place de signaleurs de confiance (article 19) constitue une nouveauté notable du texte. Ils seront labellisés par un Coordinateur des services numériques, et devront disposer de compétences et d’expertises dans la modération des contenus illicites. Une liste de ces signaleurs sera tenue publique et mise à jour régulièrement.

Pour pallier les risques d’abus, l’article 20 du Digital Services Act prévoit que les utilisateurs de la plateforme qui auraient signalés de manière infondée trop de contenu pourront se voir suspendre leur accès aux fonctions de signalement pendant un temps raisonnable.

Les « très grandes » plateformes

Les très grandes plateformes font l’objet d’obligations spécifiques en raison de leur risque systémique. Elles regroupent les plateformes qui comptent plus de 45 millions d’utilisateurs actifs chaque mois (10% de la population de l’UE).

Aux termes de l’article 26, les très grandes plateformes ont l’obligation (en plus de celles précitées) de procéder à des analyses de leurs risques d’impact systémique, et notamment des risques de diffusion de contenus illicites. Ces analyses d’impact sont suivies d’une obligation d’atténuation des risques (article 27) en coopération avec les autorités (Coordinateurs de services numériques, Commission européenne, Conseil européen aux services numériques).

En outre, les très grandes plateformes doivent publier tous les six mois, des rapports sur les moyens mis en œuvre pour modérer leur contenu.

Enfin, eu égard à l’influence et la taille de ces plateformes, l’article 37 leur octroie un rôle de premier plan dans la prévention de la diffusion de masse des contenus illicites. En cas de crise (pandémie, catastrophe naturelle, terrorisme), la Commission européenne encourage ces plateformes à mettre en place un plan d’action et à afficher certaines informations fournies par les autorités des Etats membres en rapport avec la crise.

Le Digital Services Act doit désormais passer par la procédure législative ordinaire de l’Union européenne. Il reste à voir les éventuelles modifications de ce texte qui s’attaque, à n’en pas douter, avec vigueur aux contenus illicites.

Alexandra Massaux
Barthélémy Busse
Lexing Contentieux numérique

(1) Proposal for a Regulation of the European Parliament and of the Council on a single market for digital services (Digital Services Act), 15 décembre 2020, COM (2020) 825 final, 2020/0361 (COD)




Retour sur les travaux d’EUROPOL contre la contrefaçon en 2020

EUROPOL contre la contrefaçon

Les conférences internationales d’Europol sont l’occasion de faire le point sur les actions des autorités répressives européennes.

EUROPOL est une agence européenne de police criminelle basée à La Haye aux Pays-Bas, créée en 1999, qui facilite l’échange de renseignements entre les différentes polices de l’Union Européenne notamment en matière de trafic de stupéfiants, de terrorisme et de criminalité internationale. Le développement de la criminalité interétatique européenne et de la cybercriminalité ont permis d’étendre ses pouvoirs.

EUROPOL a créé l’« Intellectual Property Crime Coordination Center » (IPC3), chargé plus particulièrement de lutter contre la contrefaçon au sein de l’UE. Cet organisme a apporté une contribution significative dans des affaires importantes de violation de propriété intellectuelle.

Les représentants des autorités judiciaires des Etats Membres de l’UE travaillent en étroite collaboration avec des organismes privés. Cette union inédite entre des organismes privés et des autorités publiques se matérialise par plusieurs évènements organisés tous les ans qui rassemblent à la fois des représentants des titulaires de droit et des représentant des Etats ou des autorités judiciaires comme par exemple les conférences « IN OUR SITE (IOS) »  ou « IP CRIME ».

La conférence IN OUR SITE

La conférence annuelle « IN OUR SITE » se tient au siège social d’EUROPOL à La Haye depuis 2012. Elle s’est spécialisée dans la saisie et la désactivation de noms de domaine de sites internet contrefaisants. C’est l’occasion de faire le point sur le nombre de sites internet désactivés par les autorités chaque année.

5 sites ont été désactivés en 2012, 328 en 2013, 690 en 2014, 20520 en 2017 et 33600 en 2018.

Du fait de la pandémie, IOS XI s’est tenue virtuellement les 16 et 17 juillet 2020. Selon EUROPOL, 21910 sites contrefaisant ont été désactivés en 2019 (1). Ces sites concernaient la vente de :

  • 22 614 produits cosmétiques,
  • 22 042 accessoires pour téléphones mobiles,
  • 69 657 flacons de parfum,
  • 8 929 articles vestimentaires,
  • 7 480 boîtes à lessive,
  • 4 800 boîtes de préservatifs.

Des sites désactivés en plus grands nombre

Cet accroissement du nombre de sites impactés démontre que les procédures de désactivation de noms de domaine se sont industrialisées entre les titulaires de droit, les autorités publiques et l’industrie des noms de domaine.

Concrètement les titulaires de droit -en général les mieux informés du nom des sites contrefaisants les plus actifs dans leur domaine-, alimentent les autorités européennes qui se tournent ensuite vers l’industrie des noms de domaine localisée sur tout le territoire européen pour désactiver rapidement les sites contrefaisants. Ce système a des avantages certains quand les administrateurs des sites contrefaisants ne sont pas identifiables ou lorsqu’ils sont identifiés en dehors de l’UE comme en Chine, principal pourvoyeur de contrefaçons au monde.

C’est également l’occasion de partager les expériences et les procédures applicables en Europe pour désactiver les sites contrefaisants.

La conférence IP Crime

Depuis 2017, EUROPOL organise durant 2 jours, en collaboration avec les autorités locales des différents pays ainsi qu’avec la coalition internationale contre la contrefaçon (IACC) une conférence sur les problèmes de contrefaçon rencontrés à travers l’Europe.

La 4e édition s’est tenue de manière totalement virtuelle en novembre 2020. Parmi les grandes tendances de 2020, la Chine reste un pourvoyeur important de produits contrefaits. L’Inde a fait également une percée importante notamment dans la vente de médicaments contrefaits.

Les nouveautés concernent les différents canaux de ventes de contrefaçon qui passent par les marketplaces des réseaux sociaux (Facebook, Snapchat). En effet, les contrefacteurs n’utilisent plus leurs propres sites (probablement désactivés dans IOS) mais plutôt les marketplaces pour élargir leur clientèle.

Contrefaçon et piraterie

Les titulaires de droit surveillent donc la vente de leurs marques sur ces nouvelles plateformes de vente et notifient les annonces contrefaisantes à leurs services « ABUSE » en vue de leur suppression. Cette surveillance demande des moyens importants de la part des marques. Elle nécessite aussi une capacité de réactivité des réseaux sociaux pour être efficace.

L’autre tendance de la dernière conférence d’IP CRIME est la lutte accrue contre le phénomène pirate de l’IPTV.

L’IPTV consiste à accéder à l’ensemble des chaînes de télévision proposées par différentes plateformes de cinéma sans respect de la chronologie des médias (2), ou à des rediffusions sportives et ce, sans avoir à payer pour chaque abonnement. Proposés en dehors de toutes autorisation des chaînes de TV et des producteurs de cinémas, ces abonnements passent par des systèmes mafieux de plus en plus industrialisés. Les abonnements peuvent être souscrits par l’intermédiaire de boîtiers multimédias pré-paramétrés comme des « KODI » qui se connectent à des sites de streaming non autorisés.

EUROPOL a ainsi mené plusieurs raids (3) pour déconnecter des réseaux de streaming pirates très rémunérateurs pour leurs administrateurs (4).

EUROPOL n’a pas encore annoncé la reprise des conférences IOS ou IP CRIMES en présentiel ; mais nul doute que la lutte contre ces phénomènes devrait encore s’accélérer.

Anthony Sitbon Directeur du département Sécurité Lexing Technologies

Notes

(1) Operation in our sites takes down 21 910 websites selling counterfeit goods, Communiqué Europol du 30-11-2020.
(2) La chronologie des médias est issue de la loi 82-652 du 29 juillet 1982 modifiée à plusieurs reprises au fur et à mesure de l’arrivée de nouveaux modes de consommation des vidéos. Cette loi impose le respect d’un délai entre la sortie en salle et la sortie en vidéo à la demande.
(3) Illegal streaming service with over 2 million subscribers worldwide switched off, Communiqué Europol du 10-06-2020.
(4) Illegal streaming service with over 2 million subscribers worldwide switched off, Vidéo Europol du 10-06-2020, pour un exemple vidéo d’un raid de la police espagnole assistée d’EUROPOL.




Contenus haineux : peut-on responsabiliser les plateformes ?

haine contenus haineux RT France a invité Marie Soulez pour évoquer la lutte contre les contenus haineux et la responsabilité des plateformes (1).

La chaîne d’information RT France avait convié Marie Soulez, directrice du département Propriété intellectuelle du cabinet Lexing Alain Bensoussan avocats. L’objectif : réagir à la rencontre à Bruxelles du Premier Ministre français et de la Présidente de la Commission européenne. Cette rencontre a abordé la lutte contre la haine en ligne après l’attaque terroriste ayant coûté la vie à l’enseignant.

Bruxelles et Paris pourraient-elles travailler d’un commun accord à une régulation des plateformes ? Marie Soulez rappelle que la Commission européenne n’a pas attendu le drame de Conflans-Sainte Honorine pour agir :

une réforme a été lancée au plan européen, le Digital Services Act, visant à responsabiliser et réguler tant les plateformes que les contenus qu’elles publient ».

Et l’avocate de préciser que ces travaux visent aussi à réformer la directive e-Commerce adoptée en 2000 :

Ceux-ci devraient aboutir à un nouveau régime dont les contours pourraient voir le jour fin 2020 ou début 2021 ».

Lutte contre la haine et liberté d’expression

Comment lutter contre la haine sans limiter la liberté d’expression ? Marie Soulez rappelle que c’est justement parce qu’elle empiétait sur cette liberté que la loi Avia a été retoquée :

Son régime laissait craindre une automaticité de la suppression des contenus sans réelle possibilité de contrôle du juge, et à l’arrivée une censure orchestrée par la loi ».

Elle rappelle en outre que sur les réseaux sociaux, des systèmes de notification existent :

La loi française de 2004 pour la confiance dans l’économie numérique – dite LCEN – les oblige à mettre à disposition des internautes les moyens de notifier les contenus haineux ». Par ailleurs, les GAFA « investissent en masse dans les algorithmes permettant de détecter en amont ce qui pourrait relever de contenus haineux ».

Loi Avia et contenus haineux

La loi Avia aurait-elle pu contribuer à éviter un tel drame et comment ? Marie Soulez souligne que deux systèmes prévus par ce texte auraient pu trouver à s’appliquer :

  • le retrait des contenus en 24h ;
  • le retrait des contenus pédopornographiques ou terroristes “sous 1h”.

Mais ce sont justement ces dispositions qui, rappelle-t-elle, ont conduit à l’invalidation par le Conseil constitutionnel du texte.

Pourrait-on assister au retour d’un système comparable à celui de la loi Avia ?

Pas dans l’immédiat selon Marie Soulez. Elle précise toutefois qu’une loi équivalente existe en Allemagne, la NetzGD depuis janvier 2018.

En revanche, les travaux engagés au plan européen pourraient s’en inspirer ».

Eric Bonnet
Directeur de la communication juridique
Avocat, Lexing Alain Bensoussan Avocats

(1) RT France,  L’invité du JT du 23 octobre 2020.

 




Les cyberattaques ne connaissent pas de frontières : Le réseau Lexing® vous informe

cyberattaques Comment lutter contre les cyberattaques ? est le thème du dernier numéro de « Lexing Insights » réalisé par les membres du réseau Lexing® (1).

Face aux cyberattaques de plus en plus nombreuses et massives, les failles de sécurité sont devenues une préoccupation majeure et incontournable des entreprises en France et dans tous les pays du monde. La société Google a annoncé intercepter chaque jour plus de 18 millions de courriers électroniques malveillants ou d’hameçonnage liés à la Covid-19.

  • Quel est l’arsenal juridique dont dispose les pays dans le monde pour lutter contre les cyberattaques ?
  • Quels sont les principaux vecteurs de la cybercriminalité ?
  • Comment réagir en cas de failles de sécurité ?
  • Le piratage éthique est-il légal ?

Par conséquent, il est vivement recommandé de se prémunir contre le risque cyber, aussi bien en se dotant d’outils informatiques performants qu’en étant très réactif en cas de failles de sécurité.

Pour Virginie Bensoussan-Brulé c’est donc : « dès la découverte d’une faille de sécurité, et préalablement à toute action contentieuse, que plusieurs actions doivent rapidement être mises en œuvre ».

La stratégie contre les cyberattaques

L’occasion selon Virginie Bensoussan-Brulé de lister et de commenter les actions à mener :

  • Identification et correction de la faille
  • Constitution d’un dossier de preuve technique.
  • Qualification juridique des faits
  • Dépôt de plainte
  • Plan média

Sans oublier surtout de vérifier sa police d’assurance pour s’assurer qu’elle couvre les risques informatiques.

Les membres du réseau Lexing® dressent un tableau de la situation actuelle en Afrique du Sud, Espagne, France, Grèce et Royaume-Uni.

Isabelle Pottier
Lexing Département Etudes et publications

(1) Lettre Juristendances Internationales Informatique et Télécoms n°26, Sept-Oct. 2020.




Téléchargement illicite : le logiciel de P2P « Emule » enfin mis à jour

Emule

10 ans ! Une éternité pour une mise à jour de sécurité. C’est pourtant le délai qu’il a fallu aux développeurs du logiciel P2P Emule pour annoncer une amélioration de sa sécurité et des corrections de divers bugs informatiques.

Pour entrer un peu plus dans le détail, il a été annoncé un passage au « https » pour une connexion sécurisée à certains serveurs, la comptabilité avec les derniers « codecs » vidéos (1), le brouillage de la première connexion aux serveurs, etc.

Emule ou l’ancêtre du téléchargement illégal

Historiquement, Emule est un logiciel de partage de fichiers créé en 2002 destiné à améliorer un autre logiciel P2P (edonkey2000) jugé sur le déclin car pas assez sécurisé.

En effet, la technologie de partage de fichiers sur le P2P a rapidement été détournée pour permettre la diffusion en masse d’œuvres protégées par un droit d’auteur ou un droit voisin attirant ainsi l’attention des ayants-droit qui chercheront à limiter son usage illicite.

Leurs premières actions ont été réalisées en France ou à l’étranger contre des serveurs utilisées par les logiciels P2P pour permettre le téléchargement d’un fichier. En effet, les premiers logiciels P2P devaient nécessairement se connecter à des serveurs centralisés capables d’indiquer où se trouvaient sur le réseau les fichiers recherchés par les internautes.

Les effets des actions pénales

En 2006, des actions pénales ont été engagées par les autorités belges contre les serveurs « Razorback » et à la même époque en France le serveur « la taverne de l’espace », avait été fermé par les gendarmes toulousains.

Par ailleurs, en 2008, l’industrie musicale avait obtenu la condamnation (sans doute symbolique) des éditeurs américains du logiciel P2P « Soulseek » pour édition d’un logiciel manifestement destiné à la contrefaçon (art. L.335-2-1 CPI).

Enfin, des actions pénales pour contrefaçon ont été initiées contre les plus gros « partageurs » de fichiers sur les réseaux P2P sur le fondement de l’article L.335-2 du Code de la Propriété intellectuelle. C’est d’ailleurs à l’occasion d’une procédure, initiée par la Sacem en 2008 contre un internaute, que la Cour de Cassation (ch. crim. 13-1-2009, n°08-84.088) a apporté des précisions importantes sur le fait que l’adresse IP d’un internaute est bien une donnée à caractère personnelle.

Emule lancera alors des fonctionnalités innovantes pour parer aux mesures de bridage déjà mises en œuvre dès cette époque par certains FAI, fournisseurs d’accès à internet. Emule permettra également la connexion sur son propre réseau appelé « Kademlia ».

L’adoption des lois Hadopi

En 2009, les 2 lois Hadopi sont adoptées et permettent la création d’une contravention de 5e classe pour non sécurisation de l’abonnement internet. Ces lois favorisent ainsi une approche pédagogique de la lutte contre le téléchargement illégal.

Le dispositif met en place des mesures d’avertissements par la Hadopi d’internautes dont l’abonnement internet a été utilisé pour mettre à disposition des contenus protégés.

L’avertissement se fera d’abord par mail puis par lettre recommandée. Si l’internaute est repris une 3e fois dans un certain délai, l’Hadopi peut alors envoyer son dossier aux tribunaux territorialement compétents.

L’envoi des messages d’avertissement (l’Hadopi évoque des dizaines de millions d’avertissements dans ses rapports annuels) a eu pour effet la désaffection pour le logiciel Emule et l’adoption de nouvelles technologies de partages de fichiers jugées comme moins risquées comme le direct download avec l’avènement de la plateforme de stockage « Megaupload », (elle aussi fermée par les autorités et dont le créateur n’a toujours pas été jugé aujourd’hui (2)).

D’autres internautes ont choisi de délaisser le logiciel Emule tout en restant sur une technologie de pair-à-pair en adoptant le protocole de transfert de fichiers « Bittorrent ».

Emule victime du déclin du nombre d’utilisateurs

Ce phénomène de désaffection pour le logiciel Emule s’est confirmé dans les dossiers traités par la Hadopi qui évoque dans ses derniers rapports annuels moins de 1 % de saisine en provenance d’internautes diffusant du contenu protégé sur Emule !

Le protocole Bittorrent nécessite pour les internautes de se connecter à un « tracker » afin d’y télécharger des fichiers appelés « Torrents ».

Ces fichiers savent en permanence où se trouvent les contenus recherchés par les internautes sur le réseau Bittorrent et permettent la mise en relation d’un seeder (source du fichier) avec un leecher (personne qui souhaite télécharger un fichier).

En théorie, le protocole Bittorrent impose à chaque personne qui télécharge sur ce réseau, de mettre à disposition autant de données qu’il a téléchargé. C’est ce qu’on appelle le « ratio ».

Or, les trackers Bittorrent ont vite compris qu’ils pouvaient tirer profil de cette règle en permettant aux internautes de leur verser une somme d’argent pour pouvoir récupérer du contenu sans en mettre à disposition.

Ces donations, à l’origine effectuées le plus souvent par l’intermédiaire d’intermédiaire de paiement comme PAYPAL ou du « POTCOMMUN », sont maintenant effectués le plus souvent en monnaie virtuelle (Bitcoin ou autres).

Les ayants-droit ont donc accentué leurs efforts contre les administrateurs de ces sites. On citera pêlemêle les affaires : OMGTORRENT, GKS… et surtout T411 dont les administrateurs se sont considérablement enrichis par les donations de leurs membres. Toutes ces plateformes ont dû fermer suite à l’interpellation de leurs administrateurs suite à des plaintes d’ayants-droit.

La baisse d’audience des sites de P2P

Au final, l’audience de sites de P2P est devenue largement résiduelle, du fait de l’action combinée du développement de l’offre légale, des efforts des ayants droits contre les sites illicites, des avertissements de la Hadopi et également du transfert des internautes les plus décidés vers des plateformes de diffusion illicites moins surveillées comme le streaming, le direct Download ou même les newsgroups.

À ce titre, Usenext l’un des plus gros hébergeurs de groupes binaires (c’est-à-dire de messages accompagnés de pièces jointes) sur le réseau Usenet a annoncé en juin 2020 une violation de données tellement importante que ce fournisseur a préféré se mettre hors ligne pour procéder à un audit complet de son système d’information.

Autant dire que passer 10 ans, pour Emule, sans subir d’attaque informatique majeure est un exploit !

Anthony Sitbon
Directeur du département Sécurité
Lexing Technologies

(1) Un codec est un programme qui convertit un fichier audio ou vidéo dans un autre format.
(2) Julien Lausson, « 7 ans plus tard, Kim Dotcom abat ses dernières cartes pour échapper à l’extradition vers les USA », Numérama, 11 juin 2019.
(3) Il s’agir encore ici d’un usage détourné de technologie. La plateforme « lepotcommun » étant majoritairement utilisée comme une cagnotte virtuelle permettant d’effectuer des cadeaux communs (pot de départ en entreprise par exemple).




Première décision de la CJUE sur le principe de la neutralité de l’internet

neutralité de l’internetLa CJUE vient de rendre un arrêt fondamental (1) en statuant sur la manière d’interpréter les dispositions du Règlement 2015/2120 instaurant un internet ouvert (2).

La Cour de justice de l’Union européenne a rendu, le 15 septembre 2020, un arrêt qu’attendaient, notamment, tous les commentateurs du règlement de 2015 sur la neutralité de l’internet, puisqu’il vient préciser les conditions dans lesquelles il faut considérer qu’une violation des principes d’égalité et de traitement non-discriminatoire du trafic doivent être appréciés.

Dans cette affaire, la Cour de justice a été saisie par la Haute Cour de Budapest, statuant dans le cadre d’un différend ayant opposé Telenor à l’autorité hongroise de régulation des télécoms (Hungarian National Media and Communications Office), cette dernière ayant considéré qu’une des offres d’accès à internet proposée par Telenor contrevenait au principe de la neutralité de l’internet, objet du règlement de 2015.

En effet, Telenor proposait une offre (dite « zero tariff ») dans laquelle le volume de données consommées pour accéder à certains services ou applications n’était pas décompté du volume total de l’abonnement souscrit par les utilisateurs.

De plus, les éventuelles mesures de restriction de débit ou d’interruption, mises en œuvre une fois le volume souscrit atteint, n’étaient pas appliquées aux services inclus dans le volet « zero tariff » de l’offre.

Le principe de la neutralité de l’internet

La CJUE rappelle que les articles 3(1) et 3(2) du règlement ont pour objectif de protéger un certain nombre de droits des utilisateurs finals d’internet et interdisent aux fournisseurs d’accès de mettre en place des accords ou des pratiques commerciaux qui auraient pour conséquence de limiter l’exercice de ces droits.

Par ailleurs, elle rappelle que l’article 3(3) instaure, quant à lui, une obligation générale de traitement égal et non-discriminatoire du trafic sur internet.

Au cas d’espèce de l’offre de Telenor, la Cour a considéré que les contrats proposés par l’opérateur, par lesquels le client a accès un bundle combinant du « zero tariff » et des mesures permettant de bloquer ou de ralentir l’utilisation de services et d’applications « non zero tariff », sont de nature à limiter l’exercice, par les utilisateurs finals, de leurs droits. Une telle limitation enfreint donc les dispositions de l’article 3(2) du règlement.

De plus, la Cour constate que, par l’effet des volumes d’abonnements souscrits, cette mesure a pour conséquence de privilégier l’usage des services inclus dans le volet « zero tariff », au détriment de ceux qui en sont exclus, sans compter l’effet « détrimental » pour ces derniers des mesures de réduction de débit ou d’interruption.

L’égalité de traitement entre tous les services

Au delà de ces constats, la Cour indique qu’il n’est pas nécessaire de faire la démonstration que les mesures de réduction de débit ou d’interruption ont effectivement restreint la possibilité pour les utilisateurs finals d’exercer leurs droits : il faut, mais il suffit, de constater que les mesures de réduction de débit ou d’interruption de trafic ne sont appliquées que pour certaines catégories de services ou d’applications, pour considérer qu’il y a violation des dispositions de l’article 3(3) du règlement.

En revanche, toute mesure qui serait appliquée de manière discriminatoire à tel ou tel service ou application et qui serait fondée sur des considérations purement techniques, serait acceptable, alors que la même mesure, fondée sur des considérations simplement commerciales enfreint, per se, le règlement de 2015 sur la neutralité de l’internet.

L’intérêt de cet arrêt, outre qu’il est le premier à statuer sur cette question de la neutralité de l’internet, réside précisément dans cette solution qui éclaire les régulateurs, mais aussi les opérateurs, les fournisseurs d’accès, les utilisateurs et les régulateurs, sur le mode d’administration de la preuve d’une infraction à l’article 3 du règlement.

Cette preuve, qui s’affranchit de devoir démontrer la réalité et l’effectivité de l’atteinte aux droits des utilisateurs finals, rend désormais plus facile la poursuite des infractions au principe de la neutralité de l’internet, ce qui vient, de facto, en renforcer le poids dans le dispositif réglementaire européen.

Frédéric Forster
Lexing Constructeurs informatiques et télécoms

(1) CJUE Arrêt du 15 septembre 2020 dans les affaires jointes C-807/18 et C-39/19 Telenor Magyarorszag Zrt. contre Nemzeti Média- és Hirközlési Hatosag Elnöke.
(2) Règlement (UE) 2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un internet ouvert et modifiant la directive 2002/22/CE concernant le service universel et les droits des utilisateurs au regard des réseaux et services de communications électroniques et le règlement (UE) n°531/2012 concernant l’itinérance sur les réseaux publics de communications mobiles à l’intérieur de l’Union.




Propriété intellectuelle : la CJUE précise la notion d’adresses au sens de la directive 2004/48

adresses

La Cour de justice de l’Union européenne a précisé dans un arrêt rendu le 9 juillet 2020 la notion « d’adresses ». En cause : celles des personnes ayant porté atteinte à un droit de propriété intellectuelle, dont la directive 2004/48 prévoit la fourniture en cas de litige (1).

Cette décision a été rendue dans une affaire opposant une société de production d’œuvres cinématographiques à YouTube et Google; la plateforme de streaming diffusait sans autorisation des films appartenant à son catalogue, visualisés plusieurs dizaines de milliers de fois.

La société de production avait saisi la justice allemande d‘une demande de transmission des adresses courriel, IP, et numéros de téléphone mobile de la personne à l’origine de la diffusion des œuvres. Cette demande avait été formée sur le fondement de la directive 2004/48/CE (2) relative au respect des droits de propriété intellectuelle.

Ce texte prévoit dans son article 8 relatif au droit d’information que les autorités judiciaires d’un Etat Membre peuvent ordonner que des informations sur l’origine et les réseaux de distribution des marchandises ou des services qui portent atteinte à un droit de propriété intellectuelle soient fournies à un ayant-droit qui en fait la demande.

Les informations visées comprennent, selon les cas, les noms et « adresses » des personnes ayant participé à la diffusion illicite.

La notion d’« adresses » doit s’entendre au sens strict du terme

La société requérante, qui considérait que la notion « d’adresses » prévue dans la directive 2004/48/CE devait s’entendre au sens large, il souhaitait donc se faire remettre un ensemble d’informations concernant l’identité de la personne (adresse email, numéro de téléphone, adresse IP) utilisés au moment de la diffusion de l’œuvre sur la plateforme et également au moment de leur dernier accès à leur compte Google/YouTube.

Saisie par le Bundesgerichtshof d’une demande de décision préjudicielle, la CJUE a estimé que faute de disposition plus favorable prévue dans la réglementation allemande et conformément à la protection de données personnelles générales prévue dans le Règlement général sur la protection des données (RGPD), la notion d’adresse se limitait à la seule notion d’adresse postale du contrevenant ; c’est-à-dire comme le lieu de domicile ou de résidente d’une personne déterminée.

En effet, selon la Cour de Luxembourg:

  • en premier lieu, s’agissant du sens habituel du terme « adresse », celui-ci ne vise que l’adresse postale, c’est-à-dire le lieu de domicile ou de résidence d’une personne déterminée. Il s’ensuit que ce terme, lorsqu’il est utilisé sans autre précision, tel que dans la directive 2004/48, ne vise pas l’adresse courriel, le numéro de téléphone ou l’adresse IP.
  • en deuxième lieu, les travaux préparatoires 2 ayant conduit à l’adoption de la directive 2004/48 ne comportent aucun indice de nature à suggérer que le terme « adresse » devrait être compris comme visant non seulement l’adresse postale, mais également l’adresse courriel, le numéro de téléphone ou l’adresse IP des personnes visées.
  • en troisième lieu, l’examen d’autres actes de droit de l’Union visant l’adresse courriel ou l’adresse IP fait apparaître qu’aucun de ceux-ci n’utilise le terme « adresse », sans autre précision, pour désigner le numéro de téléphone, l’adresse IP ou l’adresse courriel.

La notion d’« adresses » vise seulement l’adresse postale

Cette interprétation est, selon la Cour, conforme à la finalité poursuivie par la disposition de la directive 2004/48 portant sur le droit d’information. En effet, eu égard à l’harmonisation minimale concernant le respect des droits de propriété intellectuelle en général, cette harmonisation est limitée, selon ladite disposition, à des éléments d’information bien circonscrits.

Par ailleurs, cette disposition vise à concilier le respect de différents droits, notamment le droit d’information des titulaires et le droit à la protection des données à caractère personnel des utilisateurs.

Dans ces conditions, la Cour a conclu que la notion d’ « adresses » figurant dans la directive 2004/48 ne vise pas, en ce qui concerne un utilisateur ayant téléversé des fichiers portant atteinte à un droit de propriété intellectuelle, son adresse courriel, son numéro de téléphone ni l’adresse IP utilisée pour téléverser ces fichiers ou l’adresse IP utilisée lors de son dernier accès au compte utilisateur.

Elle a donc refusé de faire droit à la demande du producteur allemand d’obtenir des informations étendues sur la personne à l’origine de la diffusion non autorisée des œuvres cinématographiques.

Cette interprétation restrictive du texte au regard du droit allemand complique la lutte contre la diffusion non autorisée d’œuvres protégées des ayants-droit contre les géants du net.

Les États membres peuvent accorder aux titulaires de droits de propriété intellectuelle, le droit de recevoir une information plus étendue. Ceci sous réserve, toutefois :

  • d’assurer un juste équilibre entre les différents droits fondamentaux en présence et
  • du respect des autres principes généraux du droit de l’Union, tels que le principe de proportionnalité.

La situation en France

En France, le système a également souffert d’un déséquilibre qui a longtemps profité aux intermédiaires techniques. Leur responsabilité civile et ou pénale a toujours été difficile à engager pour les ayants-droits ; la législation française étant très favorable aux hébergeurs techniques.

Ces prestataires se sont longtemps réfugiés derrière la légalisation protectrice relative aux hébergeurs techniques prévue dans la Loi sur la Confiance en l’Economie Numérique du 21 juin 2004 (LCEN) (3).

La loi LCEN a, en effet, créé deux régimes de responsabilité distincts pour la publication de contenus sur internet :

  • celui de l’éditeur, en charge de la ligne éditoriale d’un site internet et qui, en général, élabore le contenu,
  • celui de l’hébergeur, qui fournit une prestation de stockage purement passif du contenu, sans choix des contenus.

L’éditeur de contenu assure la veille des contenu diffusés sur son site. Tout contenu illicite diffusé sur son site peut engager la responsabilité de l’éditeur.

L’hébergeur de contenu ne peut, en revanche, voir sa responsabilité engagée que dans certains cas :

  • s’il a été dûment informé de la présence d’un contenu illicite et
  • qu’il n’a pas pris les mesures pour en rendre l’accès impossible dans un délai raisonnable (4).

Les plateformes de vidéo ont longtemps considéré être soumises à la législation concernant les hébergeurs de contenu. La justice leur a souvent donné raison (5).

Les autres initiatives de lutte contre les plateformes de streaming vidéo

Le législateur est intervenu dans ce domaine pour renforcer les moyens mis à la disposition des ayants droits (6).

D’autres initiatives plus techniques sont venues renforcer la lutte contre la diffusion de films sur les plateformes de streaming vidéo. Ainsi, en septembre 2017, l’Association de lutte contre la piraterie audiovisuelle (ALPA) et Google ont signé un accord sous l’égide du Centre national du cinéma. Cet accord vise à lutter plus efficacement contre le piratage d’œuvres protégées ; notamment sur les plateformes de streaming vidéo les plus connues comme YouTube, Dailymotion ou Facebook.

Cet accord prévoit la mise en place d’un « guichet unique (7) » permettant la protection des œuvres des ayants-droits qui le souhaitent sur les plateformes de streaming en utilisant les technologies de reconnaissance vidéo et d’empreintes numériques (fingerprinting).

Concrètement, un ayant-droit pourra faire réaliser une empreinte numérique d’œuvres de son répertoire par des technologies comme celles développées par la société californienne « Audible Magic » ou plus proche de chez nous par l’Institut nationale de l’audiovisuel appelée « INA signature ».

Les technologies au service de la lutte contre les plateformes de streaming

Grace à ces technologies, les plateformes vidéo pourront comparer les empreintes numériques ainsi réalisées avec les fichiers uploadés illégalement.  Elles pourront, le cas échéant, empêcher leur diffusion.

L’ALPA lutte également contre la diffusion d’œuvres cinématographiques sur les plateformes de streaming vidéo totalement illicites. Elle se félicite régulièrement de l’effet des actions engagées à la fois contre les FAI et moteurs de recherches ; actions fondées sur l’article L. 336-2 du Code de la propriété intellectuelle sur l’audience des sites pirates (8).

Anthony Sitbon
Directeur du département Sécurité
Lexing Technologies

(1) CJUE 09-07-2020 Aff. C-264/19 Constantin Film c/ YouTube et Communiqué de presse de la CJUE.
(2) Directive 2004/48/CE du Parlement européen du 29 avril 2004 relative au respect des droits de propriété intellectuelle.
(3) Loi 2004-575 du 21-06-2004 pour la Confiance en l’économie numérique.
(4) Dans les 2 cas, c’est sous réserve que ce contenu ne soit pas manifestement illicite (apologie du terrorisme, pédopornographie, etc.) ; auquel cas, il devra immédiatement supprimer ces contenus sans attendre de notification.
(5) Cass. 1e civ., 17-02-2011, n° 09-67896, dans l’affaire Dailymotion – Les choristes,
(6) Loi DADSVI du 1er aout 2006, les 2 lois Hadopi 1 du 12 juin 2009 et Hadopi 2 du 24 juin 2009 : Article L.336-2 du CPI relatif à l’action en cessation en cas d’atteinte à un droit d’auteur ou à un droit voisin.
(7) Présentation du guichet unique par le Centre national du cinéma,
(8) Etude de la consommation illégale de vidéos en France.




Wikipédia : quelles règles juridiques pour la plus grande encyclopédie en ligne ?

Wikipédia« Wikipédia en français, côté coulisses » : c’était le thème de l’émission Smart Tech du 20 juillet 2020 animée par Delphine Sabattier, à laquelle participait Marie Soulez sur la chaîne d’information économique & financière ‪B Smart.‬

Que faire quand une fiche wikipédia vous concernant contient des erreurs ? Pourquoi est-ce souvent si difficile de la faire corriger ? Quelles règles juridiques s’appliquent à l’incontournable encyclopédie en ligne ? Quel est son statut ?

Autant de questions au programme de l’émission animée par Delphine Sabattier le 20 juillet dernier sur B Smart TV intitulé « Wikipédia en français, côté coulisses », thème auquel la journaliste a d’ailleurs consacré un article dans le dernier numéro de magazine Society (D. Sabattier, L’âge bête de Wikipédia, Society, 9-22 juillet 2020, p. 12).

Wikipédia : collaboration collective et neutralité imposée

Comme l’explique Delphine Sabattier, en introduction du débat auquel participait également Rémy Gerbais, délégué oéprationnel de Wikimédia France, beaucoup des questions susvisées trouvent leur réponse dans le fait que « Wikipédia repose sur un principe à la fois de collaboration collective et de neutralité imposée ».

Marie Soulez

L’occasion pour Marie Soulez de décrypter les enjeux juridiques et les règles de droit applicables à l’incontournable encyclopédie collaborative.

Morceaux choisis :

Quelles sont les règles applicables à Wikipédia, et notamment au regard du droit des données à caractère personnel ? Selon Marie Soulez,

La réglementation sur les données personnelles s’applique à la fois au niveau des contributeurs mais également au niveau des personnes identifiées dans les publications. En tant qu’hébergeur de contenus, Wikipédia est tenu de conserver un ensemble de données permettant l’identification des personnes qui y contribuent ; en ce qui concerne les données apparaissant dans les publications, Wikipédia étant une encyclopédie à vocation d’information du public, un équilibre nécessaire est à trouver entre la préservation du droit à l’information et celui, pour des particuliers, à ne pas avoir un « casier judiciaire à vie » sur Internet ».

Quel est le statut de Wikipédia ? Marie Soulez rappelle la position prise par la Cour d’appel de Paris en 2014 :

Wikipédia qui n’est pas un éditeur de presse, ne peut être tenu responsable de la publication des contenus qu’il publie ».

Wikimedia, à travers la plateforme Wikipédia, n’est qu’un hébergeur de contenus tiers. La loi du 21 juin 2004 est venue poser les jalons en matière de responsabilité de ces hébergeurs, qui ne peuvent être tenus responsables des contenus publiés par des tiers. En effet, face à l’impossibilité de contrôler l’ensemble des contenus publiés, le législateur a exonéré l’hébergeur d’une telle responsabilité, notamment en ne mettant à sa charge aucune obligation générale de surveillance. Ainsi, c’est le contributeur qui est responsable de la publication des propos litigieux. Toutefois, la responsabilité de Wikimédia pourra être engagée si, après notification du demandeur de sa volonté de voir un contenu supprimé et analyse dudit contenu, l’encyclopédie maintien la publication litigieuse ».

Le droit français a-t-il vocation à régir la responsabilité de Wikipédia, entité française mais dépendante de Wikimedia, organisation américaine ?

Les contenus publiés par Wikimédia sont orientés vers le public français. À ce titre-là, bien que Wikimédia soit une entité américaine, le droit français s’applique en vertu de la théorie dite de l’orientation ».

Beaucoup d’affaires touchant aux droits des personnes sur Wikipédia donnent-elles lieu à un procès ?

Lorsque la Cour de Justice de l’Union Européenne a rendu son arrêt sur le droit à l’oubli le 13 mai 2014, une des premières cibles a été Wikipédia. De nombreux demandeurs ont voulu exercer leur droit à l’oubli pour des contenus publiés sur l’encyclopédie en ligne. Toutefois très peu d’affaires sont arrivées en justice : les règles de la communauté Wikipédia, notamment la modération dans la publication de contenus, permettent la résolution des litiges et la suppression des contenus a posteriori ».

Concrètement, que faire lorsqu’on souhaite voir supprimer des informations publiées sur sa page Wikipédia ?

Il ne sera bien sûr pas possible de supprimer une information du seul fait qu’elle déplait. Cela nécessite un contenu inexact, illicite, diffamatoire voire injurieux. Si tel est le cas, il sera possible de mettre en œuvre les actions judiciaires susceptibles de mener à la suppression du contenu (…). Il existe de nombreuses procédures judiciaires d’urgence : référés, lorsqu’un dommage imminent préjudiciable existe, ou encore requêtes judiciaires qui se démarquent par la non-contradiction du défendeur. Bien sûr, les procédures au fond subsistent lorsque les procédures d’urgences n’ont pas permis la réparation du préjudice. »

Voir l’intégralité du débat dans l’émission Smart Tech de la chaîne B Smart (débute à 12:00), Le magazine quotidien de l’innovation, émission du lundi 20 juillet 2020.

Eric Bonnet
Directeur de la communication juridique
Avocat, Lexing Alain Bensoussan Avocats




Les technologies au cœur de la lutte contre le Covid-19

contre le Covid-19

A l’heure du déconfinement, les technologies sont plus que jamais au cœur de la lutte contre le Covid-19, comme l’explique Alain Bensoussan dans un article publié le 22 mai 2020 sur son blog du figaro.fr

Depuis les IA déployées dans les hôpitaux chinois pour détecter précocement les porteurs du virus, jusqu’aux solutions de « traçage numérique » (type StopCovid), en passant par les drones de surveillance, les caméras thermiques ou les applications dédiées au retour des salariés en entreprise, les technologies auront joué un rôle central dans la lutte contre la pandémie.

Pour Alain Bensoussan, une évidence : « il convient plus que jamais de libérer le potentiel des technologies d’identification en prenant en compte l’essence du droit à la protection des données ».

Ces technologies sont une source d’opportunités dans le combat que nous avons à mener. L’important n’est pas tant la donnée que son utilisation après le confinement. Il faut mettre en place des garanties qui permettront de pouvoir utiliser toutes les technologies permettant d’exploiter la « data » dans ces circonstances exceptionnelles de crise épidémiologique.

Si l’on veut améliorer la situation sanitaire et économique en permettant un déconfinement dans les meilleures conditions, il faut en effet pouvoir recourir aux technologies du 21ème siècle sans en avoir peur.

A la condition selon Alain Bensoussan, de « mettre en place quelques garde-fous, et de garder présent à l’esprit que la protection de la vie privée s’arrête lorsque l’on est privé de vie. La vie privée ne saurait en effet être supérieure à la vie elle-même ».

Des premières précautions sont à prévoir telles que la limitations des dispositifs dans le temps (désactivation après la pandémie), l’anonymisation des données collectées, la nécessaire information des personnes ou encore la destruction des informations à l’issue de la situation d’urgence sanitaire. (…)

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications

Lire la suite sur le blog expert « Droit des technologies avancées » du Figaro, A. Bensoussan, « Covid-19 : libérer les technologies d’identification », le 22 mai 2020.




Précisions sur la demande de déréférencement d’une condamnation

déréférencement d’une condamnation

Dans un arrêt du 27 novembre 2019 (n° 18-14675), la Cour de cassation tire les conséquences des principes dégagés par la Cour de justice de l’Union européenne et rappelle l’obligation pour la juridiction saisie d’une demande de déréférencement d’une condamnation de vérifier si d’une part l’inclusion d’un lien litigieux dans la liste de résultats répond à un motif d’intérêt public important, et d’autre part si elle est strictement nécessaire pour assurer la préservation dudit intérêt.

Demande de déréférencement d’une condamnation accessible par plusieurs liens

En l’occurrence, un expert-comptable, qui avait été déclaré coupable d’escroquerie et de tentative d’escroquerie, a fait une demande de déréférencement du lien mentionnant sa condamnation pénale. Il soutenait en effet que les articles faisant état de sa condamnation étaient toujours accessibles par le biais d’une recherche effectuée à partir de ses nom et prénom sur les moteurs de recherche en ligne, et que ce dernier n’ayant pas donné suite à sa demande. Il l’a donc assigné aux fins de déréférencement, demande dont il a été débouté par la Cour d’appel de Paris par un arrêt du 6 décembre 2017.

Réponses apportées par la Cour de justice de l’Union européenne

La Cour de justice de l’Union européenne ayant été, à la même période, saisie par le Conseil d’État de quatre requêtes, portant notamment sur le droit au déréférencement, la Cour de cassation a décidé dans un premier temps de surseoir à statuer dans l’attente des réponses apportées par la CJUE qui a rendu son arrêt le 24 septembre 2019 (Aff. C-136/17).

Se fondant sur les orientations apportées par la CJUE, la Cour de cassation a censuré l’arrêt d’appel au visa des articles 9, 38 et 40 de la loi n° 78-17 du 6 janvier 1978 et des articles 9 du Code civil et 809 du Code de procédure civile.

Conformément aux indications de la CJUE, les moteurs de recherche doivent faire droit aux demandes de déréférencement portant sur des liens menant vers des pages web sur lesquels figurent des données à caractère personnel qui relèvent de catégories particulières (données de santé ou faisant état d’une condamnation). Elle précise que l’exploitant du moteur de recherches doit « vérifier, au titre des motifs d’intérêt public important (…), si l’inclusion de ce lien dans la liste de résultats, qui est affichée à la suite d’une recherche effectuée à partir du nom de cette personne, s’avère strictement nécessaire pour protéger la liberté d’information des internautes potentiellement intéressés à avoir accès à cette page web au moyen d’une telle recherche, consacrée à l’article 11 de cette Charte ».

L’interdiction du traitement des données sensibles applicables aux moteurs de recherches

Dès lors, il apparaît que la CJUE considère que l’interdiction de traiter des données sensibles s’applique également aux moteurs de recherche. Elle a ainsi dégagé deux critères sur lesquels doivent s’appuyer les juridictions en cas de demande de déréférencement d’un lien faisant état de données particulières, compte tenu de la sensibilité de ces dernières : l’appréciation du bien-fondé de la demande d’une part, en vérifiant si l’inclusion du lien litigieux répond à un motif d’intérêt public, et vérifier d’autre part que la demande est strictement nécessairement pour assurer ledit motif.

La Cour de cassation relève qu’en l’espèce, pour analyser la demande de déréférencement d’une condamnation, la Cour d’appel s’était contentée de relever que le demandeur avait une profession s’inscrivant dans la vie publique et que dès lors l’intérêt des internautes, à pouvoir accéder à l’information relative à sa condamnation pénale, prévalait sur le droit à la protection des données à caractère personnel.

En l’occurrence, elle aurait dû, compte tenu de la gravité de l’ingérence dans les droits du demandeur au respect de sa vie privée et à la protection de ses données à caractère personnel, vérifier si l’inclusion des liens litigieux était strictement nécessaire pour protéger la liberté d’information des internautes.

La Cour de cassation précise que dans le cas inverse, le trouble manifestement illicite de l’article 809 du code de procédure civile est caractérisé, et la voie du référé serait ainsi ouverte.

Les solutions dégagées par la CJUE permettront d’aiguiller à l’avenir les juridictions lorsqu’elles feront face à des demandes de déréférencement pour lesquelles des données particulières seront en jeu.

Marie Soulez
Lexing Département Propriété intellectuelle contentieux
Raphaël Liotier
Chloé Perruchot
Lexing Contentieux du numérique




Google : sanction possible pour abus de position dominante ?

position dominante de GoogleL’Autorité de la concurrence a annoncé, dans un communiqué du 9 avril 2020, avoir adopté des mesures conservatoires à l’encontre de Google dans le cadre d’une procédure en abus de position dominante. Des syndicats du secteur de la presse ont saisi l’Autorité de la concurrence au motif que depuis l’entrée en vigueur de la loi du 24 juillet 2019 créant un droit voisin au profit des agences de presse et des éditeurs, Google aurait commis un abus de sa position dominante sur le marché des services de recherches généralistes et aurait porté une atteinte grave et immédiate à ce secteur.

La société est tenue d’entamer des négociations avec les éditeurs et agences de presse au sujet de leur rémunération pour l’utilisation de leurs contenus protégés. Ces mesures conservatoires permettent de stabiliser la situation déjà précaire du secteur de la presse dans l’attente d’une décision rendue au fond sur l’existence d’une pratique anticoncurrentielle.

Le cadre juridique de la loi du 24 juillet 2019 relative aux droits voisins

La loi du 24 juillet 2019 relative aux droits voisins, qui transpose une directive européenne du 17 avril 2019, dite Directive Copyright, confère aux éditeurs et agences de presse le droit d’autoriser ou d’interdire aux plateformes numériques de reproduire leurs publications, telles que des extraits d’articles, des photographies, des infographies, voire des vidéos. Cette loi a pour objectif de mettre en place les conditions d’une négociation équilibrée entre les éditeurs et agences de presse avec les plateformes numériques, pour redéfinir le partage de la valeur au profit des premiers par l’attribution d’un droit voisin donnant lieu à une rémunération établie selon des critères objectifs.

Sous couvert de se conformer à cette loi, Google aurait décidé de manière unilatérale de n’afficher que les contenus des éditeurs et agences de presse ayant donné leur autorisation à titre gratuit. Or, Google détient près de 90% des parts du marché des services de recherches généralistes, occupant de ce fait une position dominante.

Cette posture permet à Google de rediriger un flux important du trafic vers les sites des éditeurs et agences de presse, constituant une part cruciale de leurs ressources. Compte tenu des difficultés rencontrées par le secteur, les éditeurs et agences de presse ne peuvent pas prendre le risque de perdre une quelconque partie de leur lectorat numérique. Ainsi, la très grande majorité d’entre eux ont consenti à Google des licences pour l’utilisation et l’affichage de leurs contenus protégés sans négociation et sans rémunération.

Les pratiques susceptibles de constituer un abus de position dominante

L’Autorité de la concurrence relève trois éléments lui permettant de caractériser l’existence d’une atteinte grave et immédiate au secteur de la presse et de poursuivre la procédure au fond dans la perspective d’une éventuelle condamnation au fond de Google en abus de position dominante :

  • Tout d’abord, Google aurait imposé des conditions de transaction inéquitables aux éditeurs et agences de presse afin d’éviter toute forme de négociation et de rémunération pour la reprise et l’affichage de leurs contenus protégés au titre des droits voisins.
  • Ensuite, Google aurait contourné l’objet de la loi afin d’échapper à toute rémunération des éditeurs et agences de presse. Pour ce faire, Google aurait systématiquement eu recours à la simple faculté laissée aux éditeurs de consentir à des licences gratuites, en principe limitée à certains cas et pour certains contenus. De plus, Google n’aurait communiqué aucune information relative à l’évaluation d’une éventuelle rémunération, estimant pouvoir reprendre l’intégralité des contenus sans solliciter l’accord de leurs auteurs.
  • Enfin, Google serait coupable de pratiques discriminatoires pour avoir traité de manière identique tous les éditeurs et agences de presse, alors que ceux-ci sont placés dans des situations différentes, et ce sans justification objective (tel un examen individuel des situations ou des contenus).

Eu égard à ces éléments, l’Autorité de la concurrence constate que le comportement de Google, consistant à priver les éditeurs et agences de presse d’une ressource vitale, a eu pour conséquence de les placer dans une situation économique encore plus défavorable qu’avant l’entrée en vigueur de la loi du 24 juillet 2019. L’Autorité de la concurrence considère que cette attitude cause une atteinte grave et immédiate au secteur de la presse, justifiant la prise de mesures conservatoires dans l’attente d’une décision rendue au fond quant à l’existence d’un éventuel abus de position dominante.

Les mesures conservatoires prononcées

L’Autorité de la concurrence a prononcé plusieurs mesures conservatoires afin de permettre aux éditeurs et agences de presse qui le souhaitent de pouvoir entrer en négociation de bonne foi avec Google pour discuter des modalités de reprise et d’affichage de leurs contenus ainsi que de la rémunération associée, selon des critères transparents, objectifs et non discriminatoires.

Les négociations devront se tenir dans un délai de trois mois à partir du moment où celles-ci seront engagées par un éditeur ou une agence de presse. La négociation devra s’appliquer de manière rétroactive au jour de l’entrée en vigueur de la loi, soit le 24 octobre 2019. Durant toute la période de négociation, Google devra maintenir l’affichage des extraits des contenus selon les modalités choisies par l’éditeur ou l’agence de presse.

En outre, afin de garantir une négociation équilibrée, les mesures conservatoires prévoient un principe de neutralité de l’indexation, du classement et de la présentation des contenus protégés des éditeurs et agences sur les services de Google.

Enfin, Google devra adresser des rapports mensuels à l’Autorité de la concurrence afin que celle-ci puisse vérifier les modalités de mise en œuvre des mesures.

Ces mesures conservatoires resteront en vigueur jusqu’à ce que soit prononcée une décision sur le fond quant à l’existence d’un abus de position dominante de Google.

Frederic Forster
Lexing Constructeurs informatique et télécoms
Cyrielle Girard-Berthet
Auditrice de justice de la promotion 2020
École Nationale de la Magistrature




L’obligation de retrait de contenu illicite par l’hébergeur

retrait de contenu illicite

La portée de l’obligation de retrait de contenu illicite par l’hébergeur est recadrée par la Cour de justice de l’Union européenne (CJUE) .

En l’espèce, un utilisateur de Facebook a publié des propos insultants à l’égard d’une personnalité politique autrichienne. Ces faits ont été condamnés par les juridictions nationales autrichiennes. La Cour suprême autrichienne a posé plusieurs questions préjudicielles à la CJUE. Elle désire notamment savoir si, outre la suppression des contenus identiques à celui jugé illicite, l’hébergeur doit procéder à la suppression de contenus équivalents. En outre, la juridiction suprême souhaite savoir si cette obligation peut avoir une portée mondiale.

La décision de la CJUE revêt donc une importance capitale compte tenu du rôle joué par les réseaux sociaux dans la propagation des contenus illicites, et de l’atteinte à la liberté d’expression que peuvent engendrer de telles suppressions.

Dès lors, il convient de revenir sur les points clés de cet arrêt du 3 octobre 2019 de la CJUE (1).

Cas d’un contenu « identique » à un contenu déjà jugé illicite

La responsabilité des hébergeurs tels que Facebook est encadrée par la directive de 2000 sur le commerce électronique (2). Son article 15 interdit la surveillance généralisée et son article 14 ne permet de mettre en cause l’hébergeur que si celui-ci est informé de la présence d’un contenu déclaré comme illicite mais n’agit pas ou ne le supprime pas rapidement.

Afin d’échapper à la prohibition de la surveillance généralisée, la CJUE se fonde sur l’article 47 de cette même directive, en vertu de laquelle l’article 15 ne s’applique pas « à un cas spécifique ». Tel est précisément le cas pour un contenu précis jugé illicite par une juridiction nationale.

Dès lors, puisque le contenu est identique à celui qui a été jugé illicite, alors seul un contenu est visé, et la surveillance n’est donc pas généralisée.

Cas d’un contenu « équivalent » à un contenu déjà jugé illicite

La CJUE définit brièvement un contenu équivalent à un contenu illicite comme le contenu qui « reste, en substance, inchangé, et dès lors, diverge très peu de celui ayant donné lieu au constat d’illicéité ».

Selon la Cour, l’obligation de retrait vise donc à empêcher la réapparition d’un contenu illicite qui véhiculerait, en substance, un message de même portée mais formulé en des termes légèrement différents.

La CJUE énonce que pour répondre à ce critère d’équivalence, ce nouveau contenu doit présenter « des éléments spécifiques dûment identifiés par l’auteur de l’injonction, tels que le nom de la personne concernée par la violation constatée précédemment, les circonstances dans lesquelles cette violation a été constatée ainsi qu’un contenu équivalent à celui qui a été déclaré illicite ».

Sur ce point, la CJUE prend le soin de préciser que l’hébergeur ne sera pas laissé seul pour apprécier de l’équivalence ou non du nouveau contenu. En effet, la Cour précise que l’injonction devra mentionner les contenus dits équivalents, notamment afin que l’hébergeur puisse avoir recours « à des techniques et à des moyens de recherche automatisés », à l’instar d’une recherche par mots-clés.

Obligation de retrait d’un contenu illicite, une obligation de portée mondiale

La directive de 2000 n’interdisant pas de conférer une portée mondiale à l’obligation de retrait par l’hébergeur des contenus illicites, la CJUE a saisi l’occasion pour le formuler expressément.

Si cette solution apparaît logique au regard du déploiement mondial de réseaux sociaux tels que Facebook, il faudra toutefois veiller au respect des règles du droit international.

Néanmoins, cette décision laisse en suspens plusieurs interrogations, dont notamment le fait de savoir si l’hébergeur est tenu à une obligation de moyens ou de résultat ?

Virginie Bensoussan-Brulé
Lexing Contentieux numérique
Cyrielle Girard-Berthet
Auditrice de justice de la promotion 2020
Ecole Nationale de la Magistrature

(1) Arrêt de la CJUE du 03-10-2019, Facebook Ireland Limited c/ E. G.-P., aff. C-18/18.
(2) Directive 2000/31/CE du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur dite «directive sur le commerce électronique» (JOUE L 178 du 17-07-2000).




E-réputation : l’importance de recourir à l’arsenal juridique

e-réputation

Virginie Bensoussan Brulé évoque pour Net Wash l’arsenal juridique protégeant l’e-réputation et l’importance d’y recourir à bon escient.

Comme l’explique Stéphane Alaux (1), précurseur dans le monde du référencement et fondateur de Net Wash en exergue de la publication, sur son site, de l’entretien que lui a accordé Virginie Bensoussan Brulé, « le juridique est devenu dans ce domaine un levier d’action puissant », d’autant que « l’utilisation des voies juridiques connaît de grandes avancées dans ce domaine ».

La e-réputation est l’image que les internautes peuvent se faire d’une personne physique ou morale à partir des informations trouvées sur internet et sur les réseaux sociaux.

Il s’agit, en d’autres termes, de l’image en ligne de chacun, comme l’a défini la Commission nationale de l’informatique et des libertés (Cnil) qui ajoute que celle-ci est entretenue par « tout ce qui concerne et qui est mis en ligne sur les réseaux sociaux, les blogs ou les plateformes de partage de vidéos, directement par les personnes concernées mais aussi par des tiers » (2).

Une chose est certaine : l’e-réputation est devenue un véritable enjeu, chacun devant toujours avoir présent à l’esprit que tout ce qui est posté sur les réseaux sociaux et internet reste sur le Web, dans la mesure où sa mémoire et les capacités d’y poster des données accessibles à tous sont virtuellement infinies.

Virginie Bensoussan-Brulé VIBAu départ, comme l’explique Virginie Bensoussan Brulé, directrice du Pôle Contentieux numérique du cabinet Lexing Alain Bensoussan Avocats, « internet étant appréhendé comme un nouveau média, ce sont essentiellement les principes de respect de la vie privée et de la liberté d’expression qui ont présidé à l’encadrement juridique du web ». Mais avec l’apparition de l’internet 2.0, celui des réseaux sociaux et des atteintes à la réputation qui s’en sont suivis, « plusieurs dispositions législatives sont venues permettre de répondre aux atteintes à l’e-réputation » qui relèvent principalement « d’une part des dispositions applicables aux infractions de presse, d’autre part du droit du numérique ».

Quant aux principales avancées juridiques en la matière, elles concernent à ses yeux l’émergence et/ou la consécration de principes encadrant les règles de droit applicables au réseau Internet : « Pour l’essentiel le principe de neutralité face aux contenus des pages web ; le principe d’irresponsabilité des prestataires techniques du réseau Internet ; l’absence d’obligation générale de surveillance des contenus de tiers hébergés par les prestataires techniques ».

E-réputation : la voie judiciaire doit être exercée avec tact

Et l’avocate de préciser : « La protection par la voie judiciaire de l’atteinte à la e réputation doit par conséquent être exercée avec tact ». C’est la raison pour laquelle, bien qu’il soit toujours possible de faire cesser ou de réprimer les atteintes à son e-réputation, la solution la plus efficace est encore de renforcer sa vigilance en amont notamment par les actions suivantes : « Faire un état des lieux des informations publiées sur les réseaux sociaux et sur Internet et déterminer si l’empreinte numérique laissée par un individu ou une l’entreprise et ses dirigeants reflète bien leur image de manière fidèle ; actualiser régulièrement les profils personnels et professionnels ; et pour les entreprises, mettre en place un guide des bonnes pratiques au sein de l’entreprise ».

Pour autant, il est essentiel de savoir que les individus ou entités concernés disposent, en cas d’atteinte à leur e-réputation, d’un large arsenal juridique pour faire cesser ou réprimer celle-ci : « Ainsi, lorsque l’atteinte peut être qualifiée d’injure ou de diffamation, un individu ou une entreprise peuvent agir sur le fondement des articles 29 et suivants de la loi du 29 juillet 1881 sur la liberté de la presse. D’autres actions sont encore possibles au pénal, sur les fondements de l’atteinte à la vie privée ou de l’usurpation d’identité en ligne, et au civil, ou encore sur le fondement de la violation du droit à l’image, ou encore, lorsque les propos ne peuvent être qualifiés d’injure ou de diffamation, sur le fondement du dénigrement ».

e-réputation livre Stephane Alaux

Éric Bonnet
Avocat, Lexing Alain Bensoussan Avocats
Directeur de la Communication juridique

(1) Stéphane Alaux est également l’auteur de « Carnet de voyage d’un nettoyeur du net » préfacé par Virginie Bensoussan Brulé (janvier 2020)
(2) Cnil, Nos conseils pour mieux maîtriser votre réputation en ligne. 




Quand les justiciers du web font leur loi

LPMA Les justiciers du webAlain Bensoussan évoque, pour Le Parisien Week-end, les règles juridiques susceptibles de s’appliquer aux justiciers du web qui traquent des criminels.

Le Parisien consacrait dans son supplément Week-end du 14 février 2020 un dossier aux « Justiciers du web ».

Comme l’indique Hugo Wintrebert en introduction de ce dossier sous-titré « Violence, pédophilie, terrorisme… ils traquent les criminels »,  « Derrière leur écran, des anonymes traquent les personnes qu’ils soupçonnent être des agresseurs, des pédophiles… En se substituant aux autorités, ces juges 2.0 ignorent les principes fondamentaux du droit. Au risque de livrer des innocents à la vindicte populaire ».

Et le journaliste d’ajouter : « Poussés par un désir de probité ou d’autres motivations moins avouables, des internautes s’approprient la balance, voire le glaive de la justice. Ils s’attaquent à des affaires de racisme, de violences diverses ou de maltraitances animales, bien aidés par cette tendance à tout filmer. Le web leur offre des possibilités insoupçonnées de mener des enquêtes sans quitter leur salon. Mais ce grand pouvoir implique de grandes responsabilités ».

L’occasion pour Hugo Wintrebert d’interroger Alain Bensoussan sur les règles juridiques susceptibles de s’appliquer à de telles pratiques.

« On est dans une zone très grise du droit » explique celui-ci. « La législation française n’autorise pas les citoyens à se prévaloir des pouvoirs de la police, sauf pour appréhender quelqu’un en cas de crime ou de flagrant délit », évoquant également « l’obligation de dénonciation lorsque l’on a connaissance d’un crime dont il est encore possible de prévenir ou de limiter les effets (…). Les justiciers du web ne se trouvent quasiment jamais dans ces situations ».

« Mus par leur propre éthique, les justiciers ne se posent pas de questions juridiques, abonde Alain Bensoussan. Il faut bien comprendre que la vie virtuelle n’est pas distincte de la vie réelle. Le passage de l’un à l’autre n’abolit pas toute responsabilité. Il y a une seule attitude à avoir : signaler les faits et s’en contenter ».

Éric Bonnet
Avocat, Lexing Alain Bensoussan Avocats
Directeur de la Communication juridique

« Violences, pédophilie, terrorisme… quand les justiciers du Web font leur loi », par Hugo Wintrebert, Dossier « Justiciers du web », suppl. Week-end, Le Parisien, du 14 février 2020.




La proposition de loi Avia contre la haine en ligne en 2ème lecture

proposition de loi AviaL’objectif clairement affiché par la proposition de loi Avia est de « Lutter contre la propagation des discours de haine sur internet. Nul ne peut contester une exacerbation des discours de haine dans notre société » (Exposé des motifs).

Selon un sondage cité par la proposition de loi, « 58 % de nos concitoyens considèrent qu’internet est le principal foyer des discours de haine ».

C’est la raison pour laquelle en mars 2018, Laetitia Avia, députée LREM, Karim Amellal, écrivain, et Gil Taieb, vice-président du CRIF se sont vus confiée la mission de rechercher des mesures concrètes pour lutter contre ces délits sur internet. La proposition de loi Avia a été déposée en mars 2019 et adoptée à une très large majorité en première lecture par l’Assemblée nationale en juillet 2019 (T.A. n° 310). 

Par la suite, le Sénat l’a retoqué  en décembre 2019, puis une commission parlementaire mixte s’est prononcée en janvier dernier. Cette dernière n’ayant malheureusement pas réussit à mettre d’accord députés et sénateurs, une seconde lecture a eu lieu par les deux chambres en février courant.

En cause, les risques pour la liberté d’expression : devant l’obligation faite aux plateformes de retirer dans un délai de 24 heures une série de contenus jugés haineux, sous peine d’amende, ces dernières risquent de retirer, par excès de prudence, des contenus pourtant licites.

La proposition de loi Avia et la liberté d’expression

Sans vouloir minimiser l’intérêt de la loi face au phénomène de la parole haineuse, le Sénateur David Assouline souligne les dangers : donner un pouvoir régalien aux plateformes, « celui d’exercer la censure, en prétendant les responsabiliser (…) Leur filet de censure va devenir beaucoup plus large, et nous ne connaissons pas leurs algorithmes ».

En effet, le texte propose de définir la haine sur internet comme : « Tout contenu contrevenant manifestement aux cinquième (1) et sixième (2) alinéas de l’article 24, ainsi qu’aux troisième (3) et quatrième (4) alinéas de l’article 33 de la loi du 29 juillet 1881 sur la liberté de la presse ».

Cette définition très large incrimine toutes les publications relevant des délits de presse, à savoir celles discriminant, incitant à la haine ou appelant à la violence contre une personne en raison de son origine, son ethnie, sa nationalité, sa religion, son sexe, son orientation sexuelle, son identité de genre, ou son handicap. Elle incrimine également les messages faisant l’apologie (ou niant) des crimes de guerre, crimes contre l’humanité, ou génocides ainsi que la pédopornographie et le terrorisme.

En raison de son champ très large, de nombreuses associations de défense des libertés en ligne craignent une application « floue » du texte. Maître Alain Bensoussan interviewé par L’Obs (5) se veut plutôt rassurant :

Tout sera apprécié in concreto par le juge. Jusqu’à présent, les lois concernaient les messages de haine adressés de manière générale contre une population, là ce sera plus pour des personnes plus précisément ciblées. Ça va corriger un trou dans la raquette ».

En pareil cas, le juge procède en effet,  in concreto à une mise en balance des intérêts en présence, ainsi qu’à une analyse du contexte dans lequel s’inscrivent les propos litigieux et la nature et les enjeux qui y sont attachés.

Les aménagements apportés par le Sénat

La proposition de loi Avia vient d’être modifiée en deuxième lecture en commission au Sénat (Proposition de loi n° 300 du 5 février 2020).

Ce dernier a notamment réaffirmé en séance que le délai de 24 heures pour le retrait d’un contenu manifestement haineux devrait être un objectif pour les grandes plateformes, donc une obligation de moyens, le régulateur, en l’occurrence le CSA, devant s’assurer qu’elles mettent en œuvre les moyens humains et techniques nécessaires pour pouvoir l’atteindre.

Le Sénat a mis à son ordre du jour du 26 février 2020, l’examen de la proposition de loi.

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications

(1) Apologie de certains crimes (atteintes volontaires à la vie, atteintes volontaires à l’intégrité de la personne, agressions sexuelles, vols, extorsions, destructions, dégradations et détériorations volontaires dangereuses pour les personnes), des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs.
(2) Cris ou chants séditieux proférés dans les lieux ou réunions publics.
(3) Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée.
(4) Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur  sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap.
(5) « Loi Avia : au fait, c’est quoi la haine en ligne ? », Alain Bensoussan interviewé par L’Obs le 23 janvier 2020.




Les enjeux de la e-réputation à l’heure du web 2.0

e-réputation livre Stephane AlauxExpert reconnu en e-réputation, Stéphane Alaux publie « Empreintes digitales », un e-book préfacé par Virginie Bensoussan-Brulé.

Précurseur dans le monde du référencement, fondateur de l‘agence e-réputation Net-Wash, Stéphane Alaux revient dans cet ouvrage sous-titré « Carnet de voyage d’un nettoyeur du net » sur le « monde impitoyable du web 2.0 » et les évolutions qui ont transformé internet en ce qu’il qualifie de véritable « Far West digital ».

Dans « Empreintes Digitales » l’auteur ose dire tout haut ce que d’aucuns s’accordent à considérer comme encore impensable il y a seulement 10 ans : internet, c’était mieux avant !

Certes, peut-être pas le world wide web de la fin des années 90 et du son aujourd’hui délicieusement vintage des connexions interminables. Mais plutôt le web d’avant l’internet 2.0, celui des réseaux sociaux, qui aboutit aujourd’hui à ce qui ressemble davantage à ses yeux à « une plage chargée d’immondices » avec l’apparition des atteintes à la réputation.

e-réputation Stéphane AlauxLa e-réputation, un enjeu majeur

Aujourd’hui, comme le souligne Virginie Bensoussan-Brulé dans sa préface, la e-réputation représente un enjeu majeur pour les entreprises comme pour les particuliers qui souhaitent renforcer leur visibilité : « Une réputation peut se faire et se défaire aussi rapidement, au gré des commentaires postés sur la toile. Personne n’est hors d’atteinte d’une mauvaise appréciation d’un internaute sur un site Internet, d’un commentaire déplaisant ou de la publication d’une photographie peu flatteuse ».

Dans un style truculent qui n’appartient qu’à lui, Stéphane Alaux nous entraîne, avec la communicante Isabelle Briglia qui cosigne l’ouvrage dans « un voyage sans retour, consistant à remonter la rivière du temps, à l’origine d’internet », lorsque « le concert d’éloges dominait avec frénésie », il y a une génération à peine, et que « tout semblait merveilleux, nouveau, gratuit, en quelque sorte un monde meilleur ».

Pourtant le propos se veut résolument optimiste. Ici comme ailleurs, ajoute Virginie Bensoussan-Brulé, bien qu’il soit toujours possible de faire cesser ou de réprimer les atteintes à son e-réputation, la solution la plus efficace est encore de renforcer sa vigilance en amont. Sous sa plume décidément inimitable, Stéphane Alaux en convient : « Apprenez la prévention, dégainez vos neurones, vos armures et vos flingues virtuels » pour « éviter l’enfer du web et ne regarder que les vertus du paradis sur le cloud ».

Eric Bonnet
Avocat
Directeur de la communication juridique

ebook de Stéphane Alaux : « Empreintes Digitales : Carnet de voyage d’un nettoyeur du net ». – Netwash, décembre 2019.




Deepfakes : quelles sont les solutions juridiques ?

DeepfakesLes solutions juridiques aux Deepfakes, Alain Bensoussan apporte des réponses au journal Usbek & Rica. Doit-on céder à la panique face au phénomène des fausses vidéos ?

Les Deepfakes peuvent transformer les comportements

De l’avis d’Alain Bensoussan, avocat spécialisé dans les nouvelles technologies : « Ce n’est pas un problème de quantité ni de qualité. (…) Mais n’importe qui peut désormais devenir un démon de la manipulation ».

Si l’arsenal législatif permettant de sanctionner de telles pratiques existe déjà en France, son application sur le terrain se montre toujours très compliquée. Les deepfakes en tant que créations numériques recoupent en effet des problématiques majeures liées à Internet comme la liberté d’expression, la neutralité des plateformes (Facebook, Twitter, etc.), mais aussi le droit à l’anonymat.

Si vous portez atteinte à une personne, la victime a le droit d’obtenir votre nom, prénom et adresse pour vous poursuivre devant les tribunaux, explique l’avocat. C’est l’hébergeur qui est détenteur de cette sorte de clef. Mais beaucoup de personnes l’ignorent encore ».

Il faut avant tout responsabiliser les individus face à l’usage de ces outils et aux ravages qu’ils peuvent provoquer, tel le cyber-harcèlement. Alain Bensoussan rappelle la triste réalité :

Soit vous êtes assez puissant pour prendre un avocat ou lancer une contre-information, soit vous êtes un peu faible et vous allez vous faire écraser. Il faut donner le pouvoir aux associations de lutter en votre nom ».

Quelles sont les réponses juridiques ?

La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information (« fake news ») pendant les périodes de campagne électorale fournit de premières armes pour lutter contre ce phénomène.

Elle prévoit notamment la création d’un référé spécifique pour faire stopper en urgence la diffusion des fausses informations dont on pourrait s’inspirerC’est également la solution prônée par l’avocat :

 favoriser des référés extrêmement rapides et augmenter de manière très importante les condamnations à des peines de prison ».

Isabelle Pottier
Avocat, Lexing Alain Bensoussan Avocats
Directeur du département Etudes et publications




Droit médical : l’e-réputation du médecin à l’ordre du jour

e-réputation du médecinL’e-reputation du médecin fait l’objet d’une double actualité pour le cabinet qui interviendra au GEM-congrès 2019 et a participé sur ce thème à un ouvrage qui vient de paraître.

Alain Bensoussan aborde l’e-réputation du médecin à l’occasion du GEM-congrès 2019 qui se tient au Palais des Congrès de Paris, les 19 et 20 décembre.

Cette année, le GEM-congrès (1) est placé sous la thématique de l’INNOVATION (chirurgie mini-invasive, impression 3D médecine régénérative, etc.). Une table ronde est consacrée aux défis juridiques qui peuvent se poser au chirurgien de la main.

L’occasion de présenter l’ouvrage qui vient de paraître, concernant les problèmes juridiques auxquels peut être confronté le chirurgien : « Le chirurgien face à une procédure juridique » et dont la direction a été confiée au Docteur Yves Jacob, chirurgien et expert national, par la Société française de Chirurgie de la Main (GEM).

Il a su réunir de multiples personnalités dont la notoriété et la compétence dans leur domaine font référence et autorité, parmi lesquels Alain Bensoussan et Virginie Bensoussan-Brulé, avocats au cabinet Lexing Alain Bensoussan Avocats.

« Il y a peu de chance qu’un chirurgien ne soit confronté au cours de sa carrière à une mise en cause et la chirurgie fonctionnelle que nous exerçons a le triste privilège d’être la plus exposée à une procédure judiciaire.
Cet ouvrage a pour ambition de répondre aux différentes difficultés d’ordre juridique auxquelles peut être confronté le chirurgien.
Ce travail est envisagé sous une approche pragmatique traitant de la sinistralité du chirurgien de la main, des différentes procédures et leurs particularités, des situations pouvant exposer le chirurgien à une procédure et de questions d’actualités ouvrant la voie à une réflexion de nature juridique et éthique ».

Parmi les nouveaux défis juridiques du secteur médical : l’e-réputation du médecin. Si les praticiens s’approprient désormais les réseaux sociaux pour renforcer leur visibilité, développer leur clientèle et étendre leur réseau professionnel, ils ne sont pas à l’abri d’une atteinte à leur réputation…

L’e-réputation du médecin : le défi de leur communication 2.0

Avis négatifs, injures, diffamation, dénigrement : comment lutter contre l’e-médisance des patients mécontents ?

« Alain Bensoussan, avocat spécialiste dans le Droit du Numérique et des Nouvelles Technologies, parle de la viralité des réseaux sociaux et l’absence de « droit à l’oubli » sur internet qui imposent une vigilance de chaque instant et la nécessité de réagir très vite.
Son intervention permettra de connaître les moyens à mettre en place pour valoriser sa e-réputation, savoir comment réagir face à une atteinte à sa e-réputation et connaître les actions à mettre en oeuvre à l’égard des intermédiaires techniques (forums de discussion, médias sociaux tels que Facebook ou Twitter) ».

Alain Bensoussan et Virginie Bensoussan-Brulé, « L’e-réputation des médecins », p. 225 dans « Le chirurgien face à une procédure juridique », sous la direction de Yves Jacob, éditeur Jérôme Do Bentzinger, 2019.

Eric Bonnet
Avocat
Directeur de la communication juridique

(1) G.E.M. (groupe d’études de la main, devenu depuis la société française de chirurgie de la main).

 




La protection des lanceurs d’alerte en progression

protection des lanceurs d'alerteVirginie Bensoussan-Brulé présente la progression de l’application du droit français concernant la protection des lanceurs d’alerte, lors d’une interview de Mathilde Belin pour L’Express le 15 septembre 2019.

La loi 2016-1691 du 9 décembre 2016 relative à la transparence, à la lutte contre la corruption et à la modernisation de la vie économique a considérablement fait progresser le droit français en matière de protection des lanceurs d’alerte.

La loi Sapin II est-elle bien appliquée par les entreprises ?

Le statut de lanceurs d’alerte a été étendu de simples faits de harcèlement et de discrimination dans les moyennes entreprises, à partir de 50 salariés, à ceux de corruption et de trafic d’influence pour les salariés et collaborateurs de grandes entreprises de plus de 250 personnes.

« On peut dire qu’aujourd’hui tout n’est pas fait encore, mais la prise de conscience est là, et les dispositifs sont mis en œuvre », assure Virginie Bensoussan-Brulé, avocate au cabinet Lexing Alain Bensoussan Avocats, qui accompagne les entreprises dans leur mise en conformité avec la loi.

« Tous les grands groupes français sont en conformité aujourd’hui avec la loi, en revanche c’est plus compliqué pour les PME qui font tout juste 50 salariés ».

Mathilde Belin, « La France protège-t-elle suffisamment les lanceurs d’alerte », L’Express 15-09-2019.




La répression du défaut de mentions légales des sites internet

mentions légalesLa mise à disposition de mentions légales est une obligation légale sanctionnée pénalement.

L’éditeur de tout site internet est tenu de fournir aux internautes des informations relatives à sa personne. L’article 6, III, de la Loi pour la confiance dans l’économie numérique (LCEN) impose notamment à tout éditeur de site de fournir les informations suivantes :

  1. S’il s’agit de personnes physiques, leurs nom, prénoms, domicile et numéro de téléphone et, si elles sont assujetties aux formalités d’inscription au registre du commerce et des sociétés ou au répertoire des métiers, le numéro de leur inscription ;
  2. S’il s’agit de personnes morales, leur dénomination ou leur raison sociale et leur siège social, leur numéro de téléphone et, s’il s’agit d’entreprises assujetties aux formalités d’inscription au registre du commerce et des sociétés ou au répertoire des métiers, le numéro de leur inscription, leur capital social, l’adresse de leur siège social ;
  3. Le nom du directeur ou du codirecteur de la publication et, le cas échéant, celui du responsable de la rédaction au sens de l’article 93-2 de la loi n° 82-652 du 29 juillet 1982 précitée ;
  4. Le nom, la dénomination ou la raison sociale et l’adresse et le numéro de téléphone du prestataire mentionné au 2 du I.

En vertu de l’article 6, VI, 2 de la LCEN, est puni d’un an d’emprisonnement et de 75 000 euros d’amende le fait, pour une personne physique ou le dirigeant de droit ou de fait d’une personne morale exerçant l’activité définie au III, de ne pas avoir respecté les prescriptions de ce même article.

En pratique, la non mise à disposition du public d’information identifiant l’éditeur d’un service de communication au public en ligne est une infraction qui a déjà été appliquée par les juridictions et dont un récent jugement en confirme une nouvelle fois l’application.

11 juillet 2014 : la première condamnation de l’éditeur d’un site pour défaut de mentions légales

La première application jurisprudentielle des articles 6, III, 1 et VI, 2 de la LCEN a été réalisée par la 17e chambre correctionnelle du Tribunal de grande instance de Paris qui a, dans une décision du 11 juillet 2014, condamné les éditeurs d’un site internet sur ce fondement (1).

Dans cette affaire, une société avait constaté la publication d’un commentaire dénigrant à son encontre sur le site internet « notetonentreprise.com ». Elle avait alors présenté une requête aux fins d’identification de l’auteur du commentaire, et de suppression du commentaire, et obtenu une ordonnance du Président du tribunal de grande instance de Paris faisant droit à ses demandes. Cependant, et faute de mentions légales publiées sur le site internet, ladite ordonnance n’avait jamais pu être exécuté.

La société dénigrée avait alors déposé entre les mains du procureur de la République de Paris une « plainte pour site internet non-conforme, défaut de mentions légales et pour défaut de réponse par l’éditeur du site à la demande d’une autorité judiciaire ».

L’enquête préliminaire ayant abouti à l’identification des éditeurs du site internet en question et le tribunal a reconnu les prévenus coupables du délit prévu et réprimé par l’article 6, III, 1 et VI, 2 pour avoir omis de mettre à disposition du public dans un standard ouvert les données d’identification de l’éditeur, du directeur de la publication et de l’hébergeur.

Le tribunal avait condamné les prévenus à une peine d’amende et à dédommager la partie civile pour le préjudice d’image subi.

14 mars 2017 : la condamnation de l’éditeur d’un site internet à une peine d’emprisonnement

Plus récemment, la 17e chambre correctionnelle du Tribunal de grande instance de Paris a, par jugement du 14 mars 2017, condamné l’éditeur d’un site internet à une peine d’emprisonnement et d’amende du chef du délit de non mise à disposition du public d’information identifiant l’éditeur d’un service de communication au public en ligne (2).

Pour ce faire, le tribunal a condamné le directeur de l’association éponyme de l’infraction qui lui était reproché considérant que :

« […] les investigations techniques démontrent […] que le service offert par le site www.egaliteetreconciliation.fr est fourni par l’association éponyme, toutes les données d’identification – adresses IP, comptes de messagerie, adresses physiques, numéros de téléphone etc. convergeant en ce sens et Monsieur X. n’apportant aucun élément de nature à infirmer ce constat ».

Cette affaire s’est soldée le 22 janvier 2019 par un arrêt de la chambre criminelle de la Cour de cassation qui a rappelé qu’il appartenait aux juges du fond de déterminer le directeur de la publication de fait d’un site internet, et ce malgré les mentions portées dans les mentions légales qui désignaient en l’espèce un directeur et un co-directeur de la publication de paille.

Les données techniques et factuelles relevées par les services enquêteurs dans le cadre d’une enquête préliminaire sont donc déterminantes pour identifier le directeur de la publication d’un site internet qui est, en application de l’article 93, 2 de la loi du 29 juillet 1982 sur la communication audiovisuelle, le responsable légal de l’entreprise éditrice du site.

10 juillet 2019 : la condamnation du directeur d’une publication jouissant de l’immunité parlementaire

Par un jugement du Tribunal de grande instance de Paris du 10 juillet 2019, le directeur d’une publication jouissant de l’immunité parlementaire a été condamné pour défaut de mentions légales conformes du site internet (3).

Les faits sont quelques peu similaires à la première décision citée : en l’espèce, un ancien journaliste du quotidien Le Monde a intenté une action en diffamation concernant des articles publiés sur le site d’un homme politique.

Dans ce cadre, ce dernier informe le procureur de la République du défaut de mentions légales requises sur le site litigieux.

Sa plainte est classée sans suite, après régularisation par le site. Cependant, le demandeur estime pouvoir demander réparation du préjudice lié à cette absence de mentions légales sur le site qui ne lui aurait pas permis, selon lui, « d’agir avec célérité et efficacité à la suite des articles publiés ».

En effet, le site en cause ne présentait pas le nom du directeur de la publication.

Le Tribunal de grande instance de Paris a donc considéré que la faute alléguée était établie :

  • le préjudice étant constitué par le défaut de mentions légales qui auraient permis au demandeur d’agir par la voie civile, du fait de l’indication des coordonnées et du nom du directeur de la publication ;
  • le lien entre la faute et le préjudice étant constitué par l’impossibilité pour le demandeur de choisir la voie procédurale adaptée.

Néanmoins, le tribunal précise que le préjudice doit être limité à l’impossibilité d’agir par la voie civile et ne doit pas prendre en compte le préjudice de réputation, la longueur des délais de jugement ou même le fait que le défendeur ait pu faire valoir son immunité dans le cadre de procédures pénales distinctes.

Cette condamnation constitue un nouveau pas dans la répression de l’absence de mentions légales et rappelle la nécessité d’une sanction systématique du défaut de mentions légales conformes aux dispositions de la LCEN en la matière.

Chloé Legris-Dupeux
Sarah Rosenbach
Lexing Pénal numérique et e-réputation

(1) TGI Paris, 17e ch. corr. 11 juillet 2014, STEF c/ Mr X. et Mr Y.
(2) TGI de Paris, 17e ch. corr., 14 mars 2017, LICRA, UEJF, AIPJ, SOS Racisme et MRAP / Mr X.
(3) TGI de Paris, 17e ch., Presse-civile, 10 juillet 2019, Mr X. / Mr Y.




La CJUE qualifie SkypeOut de service de communications électroniques

SkypeOutLes fonctionnalités SkypeOut sont désormais qualifiées par la Cour de justice de l’Union européenne de service de communications électroniques (1).

En effet, le 5 juin 2019, la Cour a statué sur le renvoi préjudiciel qui lui avait été soumis par la Cour d’appel de Bruxelles, concernant la délimitation de la définition du service de communications électroniques au sens des directives de l’Union européenne. En précisant cette notion, la CJUE fait entrer la société Skype Communications – pour une partie de ses activités – parmi la catégorie des opérateurs de communications électroniques.

Définition du service de communications électroniques

Le service de communications électronique est défini au sein du Considérant n°10 de la Directive 2002/21/CE du Parlement européen et du Conseil du 7 mars 2002, dite « directive-cadre » (2).

Ce service « […] se rapporte à une large gamme d’activités économiques se déroulant en ligne ». Les institutions européennes précisent de manière négative que « la plupart de ces activités ne sont pas couvertes par le champ d’application de la […] directive, car elles ne consistent pas entièrement ou principalement en la transmission de signaux sur des réseaux de communications électroniques ». Il est, toutefois mentionnée sous ce même considérant que « les services de téléphonie vocale et de transmission de courrier électronique sont couverts par la […] directive ».

Déjà, la lettre de la directive prévoyait le fait qu’une même entreprise pouvait proposer à la fois un service de communications électroniques et des services non couverts par la directive, tels que la fourniture de contenus.

L’article 2 c) de cette même directive poursuit et définit le service de communications électroniques comme le « service fourni normalement contre rémunération qui consiste entièrement ou principalement en la transmission de signaux sur des réseaux de communications électroniques, y compris les services de télécommunications et les services de transmission sur les réseaux utilisés pour la radiodiffusion, mais qui exclut les services consistant à fournir des contenus à l’aide de réseaux et de services de communications électroniques ou à exercer une responsabilité éditoriale sur ces contenus ; il ne comprend pas les services de la société de l’information tels que définis à l’article 1er de la directive 98/34/CE qui ne consistent pas entièrement ou principalement en la transmission de signaux sur des réseaux de communications électroniques ».

Toutefois, face à l’alternance des éléments de définition positifs et négatifs, un certain flou s’est installé, laissant espérer une décision plus éclairante de la part de la Cour de justice.

Dans cet arrêt, la CJUE vient, ainsi, préciser les services devant figurer parmi les services de communications électroniques et y inclure les fonctionnalités de SkypeOut, facultativement ajoutées au logiciel Skype.

Les services prestés par la société Skype

La société Skype Communications édite le logiciel Skype désormais mondialement connu, qui permet, à l’utilisateur l’ayant installé sur son terminal, de bénéficier d’un service de téléphonie vocale et de téléconférence, d’appareil à appareil.

Les fonctionnalités SkypeOut peuvent être ajoutées au logiciel Skype afin de permettre à son utilisateur de passer des appels téléphoniques depuis un terminal, vers une ligne de téléphonie fixe ou mobile, en utilisant la voix sur IP. Cette faculté est, toutefois, accordée aux utilisateurs « à sens unique » en ce qu’ils ne peuvent, en revanche, recevoir des appels téléphoniques issus de ces lignes comprises dans le plan national de numérotation.

Cette fonctionnalité se rapproche, pour certains points, des éléments de définition du service de communications électroniques. En effet, il est fourni contre rémunération, par l’intermédiaire d’une formule prépayée ou de divers abonnements.

Par ailleurs, des accords conclus avec les fournisseurs d’accès Internet permettent de réaliser l’acheminement des signaux d’appels.

Néanmoins, la société Skype Communications arguait se voir exempter de la qualification d’opérateur de communications électroniques en ce que le service SkypeOut est fourni en dehors de toute offre d’un FAI. Or ce sont les FAI qui, en pratique, transmettent et terminent les appels vers le réseau téléphonique public commuté. D’autant plus que la société ne s’est vue allouer aucun numéro depuis le plan de national de numérotation.

De plus, la société Skype Communications invoquait que ses conditions générales précisent qu’elle n’est en aucun cas responsable, envers le client final, de la transmission des signaux, ce qui est incompatible avec la qualité d’opérateur de communications électroniques.

L’argumentaire retenu par la Cour de justice

La CJUE n’a pas été sensible aux arguments de la société Skype Communications et considère que les services fournis dans le cadre des fonctionnalités SkypeOut entrent sous la qualification des services de communications électroniques.

Pour appuyer son raisonnement, la Cour use de critères de qualification tant positifs que négatifs.

Parmi les éléments constitutifs des services de communications électroniques, la CJUE relève, tout d’abord, que la société Skype Communications perçoit une rémunération de la part des utilisateurs de SkypeOut – par prépaiement ou abonnement.

Ensuite, elle considère que la société effectue les transmissions de signaux d’appels dans la mesure où, si ces signaux sont, en pratique, acheminés par des fournisseurs de services de télécommunications, ces derniers sont rémunérés par Skype Communications sur une base contractuelle. La Cour reconnaît que « cette transmission intervient en vertu des accords passés entre Skype Communications et lesdits fournisseurs de télécommunications et ne saurait intervenir sans la conclusion de tels accords » (§ 34 de l’arrêt).

La Cour poursuit et considère que la société Skype Communications est bien responsable, envers les utilisateurs de la fonctionnalité SkypeOut. Cette responsabilité se déduit justement des accords conclus avec les FAI et les fournisseurs de services de télécommunications. Les fournisseurs sont contractuellement responsables vis-à-vis de la société, mais pas des clients avec lesquels ils n’entretiennent aucune relation contractuelle. En revance, Skype Communication est considérée comme responsable vis-à-vis des utilisateurs de la fonctionnalité SkypeOut dans la mesure où ces services sont rémunérés. La relation contractuelle et rémunérées entre la société et ces divers fournisseurs d’une part, et les utilisateurs finals d’autre part, joue donc un rôle déterminant dans l’analyse de la Cour.

Ces différents critères permettent à la CJUE de considérer la fonctionnalité SkypeOut comme service de communications électroniques. Or, la Cour poursuit son raisonnement en écartant les arguments avancés comme éventuelles exonérations de ce statut.

SkypeOut fonctionnalité ou service de communications électroniques ?

Parmi les éléments ne faisant pas obstacle à la reconnaissance de la qualité de services de communications électroniques, la Cour de justice précise, d’abord, que le fait que l’usage de la fonctionnalité SkypeOut nécessite d’utiliser un service d’accès à Internet – considéré comme service de communications électroniques – n’implique pas que le service de la société Skype Communication ne puisse pas être considéré en tant que tel comme un service de communications électroniques. Il est, en effet, possible que le service proposé par cette société implique la fourniture de deux services de communications électroniques distincts.

De plus, la Cour de justice ajoute que le fait que le service SkypeOut ne soit qu’une fonctionnalité du logiciel Skype ne fait pas obstacle à sa qualification de service de communications électroniques. En effet, les deux types de services « apparaissent clairement distincts dans leur objet et demeurent totalement autonomes dans leur fonctionnement » (§ 43 de l’arrêt).

Par ailleurs, la CJUE poursuit sur le terrain de la responsabilité en précisant que, le fait pour la société Skype Communications de se dédouaner, dans ses conditions générales, de toute responsabilité liée à la transmission des signaux à l’égard des utilisateurs, est sans effet sur la qualification du service presté. Il n’est, en effet, pas concevable pour la Cour qu’un fournisseur puisse se soustraire à ses obligations, à travers ses propres conditions générales.

Enfin, la Cour termine son raisonnement en précisant que la qualification de service de société de l’information ne fait pas obstacle à la qualification parallèle de service de communications électroniques. Elle précise, à ce titre, que l’exclusion des services de la société de l’information par la directive-cadre ne concerne que les services qui ne consistent pas entièrement ou principalement en la transmission de signaux sur des réseaux de communications électroniques. A contrario, les autres services de la société de l’information ne sont pas exclus du champ d’application de la directive-cadre.

La CJUE considère, ainsi, que la fourniture du service SkypeOut constitue un service de communications électroniques, faisant de Skype Communications, pour cette branche de son activité, un opérateur de services de communications électroniques.

Frederic Forster
Johanna Chauvin
Lexing Constructeurs informatique et télécoms

(1) CJUE, Aff. C-142/18 du 5 juin 2019, Skype Communications Sarl c. Institut belge des services postaux et des télécommunications (IBPT).
(2) Directive 2002/21/CE du Parlement européen et du Conseil du 7 mars 2002 relative à un cadre réglementaire commun pour les réseaux et services de communications électroniques (directive «cadre»), telle que modifiée par la directive 2009/140/CE du Parlement européen et du Conseil du 25 novembre 2009.




Les avis négatifs sur des fiches professionnelles en ligne

suppression d’avis négatifs

Deux décisions récentes refusent des demandes de suppression d’avis négatifs relativement à des fiches professionnelles Google My Business, formulées par des chirurgiens-dentistes. 

Dans un arrêt du 22 mars 2019 (1), la Cour d’appel de Paris rappelle la règle. Des commentaires, aussi négatifs ou déplaisants soient-ils pour le professionnel concerné, ne constituent pas un trouble manifestement illicite justifiant leur retrait.

En l’espèce, un chirurgien esthétique exerçant à Paris dispose, comme nombre de praticiens aujourd’hui, d’une page Google My Business.  Il a constaté la présence de 8 commentaires selon lui « très négatifs » à l’égard de son activité professionnelle.

Quelques semaines après cet arrêt, le Président du Tribunal de grande instance, dans son ordonnance de référé du 12 avril 2019 (2), refuse également d’ordonner une suppression.  Il s’agissait de la fiche Google My Business d’une dentiste référencée sans son consentement. Elle avait constaté l’existence d’une fiche professionnelle comportant ses coordonnées et des avis sur sa pratique qu’elle estimait dénigrants.

Annuaire professionnel gratuit en ligne, le réseau Google My Business est destiné à tous les types de commerces ou entreprises. Il constitue un outil de référencement géolocalisé qui permet de promouvoir la notoriété et la bonne visibilité de son entreprise.

Les avis et commentaires qui y sont postés sont autant de retours d’expérience qui permettent à l’internaute de se faire une idée de la notoriété du professionnel.

La procédure de suppression d’avis négatifs

Dans le cas d’espèce de l’arrêt du 22 mars 2019, le praticien a fait supprimer la majorité des avis litigieux au terme d’une procédure en requête devant le Président du TGI de Paris. Il a ensuite assigné la société Google Inc., en référé afin de supprimer les avis restants sur la fiche de son établissement médical.

Par ordonnance du 29 juin 2018 (3), le Président du Tribunal de grande instance de Paris a débouté le praticien de ses demandes. Ce dernier fait donc appel de l’ensemble des chefs de cette décision.

S’agissant de l’arrêt du 22 mars 2019, la Cour d’appel de Paris confirme dans toutes ses dispositions l’ordonnance de référé du 29 juin 2018.

Dans le cas d’espèce de l’ordonnance de référé du 12 avril 2019, la praticienne assigne Google France en référé afin d’obtenir la suppression de la fiche Google My Business sur le fondement du droit d’opposition au traitement de données.

Dans un cas, l’objectif était donc celui de la suppression d’avis négatifs publiés sur la fiche professionnelle ; tandis que dans l’autre, l’ambition était celle d’obtenir la suppression de la fiche professionnelle, créée sans le consentement de la praticienne.

Les fondements de la demande de suppression d’avis négatifs

Dans le cas de l’arrêt du 22 mars 2019, le praticien fonde sa demande sur les dispositions de l’article 6-1, 8) de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

Son action est par ailleurs fondée non pas sur le droit de la presse mais bien sur le dénigrement et sur les dispositions de l’article 1240 du Code civil.

De son côté, la société Google Inc. soutient la nullité de l’assignation introductive d’instance. Selon elle,  l’assignation ne répondrait pas aux exigences posées par les dispositions de l’article 53 de la loi du 29 juillet 1881 sur la liberté de la presse.  Elle précise que le juge des référés avait rejeté cette exception de nullité dans la mesure où il n’avait pas donné son exacte qualification.

La Cour d’appel précise que le praticien a situé son action dans le cadre des dispositions de la loi pour la confiance dans l’économie numérique, à l’exclusion de la loi sur la presse. Le fait est qu’elle ne sollicitait que le retrait des trois avis publiés sur sa fiche professionnelle, sans demander de réparation. Aussi, dans son assignation, il soutient que les avis négatifs sont « faux », comme n’émanant pas de ses clients, ou « dénigrants » et qu’ils lui causent un « réel préjudice de réputation ».

Dans le cas de l’ordonnance de référé du 12 avril 2019, la praticienne fonde également sa demande sur les dispositions de l’article 6-1, 8) de la loi du 21 juin 2004.

En revanche, son action est pour sa part fondée sur les dispositions de la loi Informatique et libertés, dans la mesure où elle estime que la fiche Google My Business la concernant constitue un traitement automatisé de ses données manifestement illicite.

L’absence de trouble manifestement illicite

Ces deux décisions concluent à l’absence d’un trouble manifestement illicite.

Dans le cas de l’arrêt du 22 mars 2019, faute de diffamation, d’injure ou de dénigrement, la Cour en a déduit que l’existence d’un trouble manifestement illicite n’était pas caractérisée. Elle confirme ainsi l’ordonnance de référé du 29 juin 2018.

En l’espèce, les trois avis litigieux étaient les suivants :

  • « homme désagréable, hautain, antipathique, pas à l’écoute ni disponible pour le patient, il donne l’impression qu’il a qu’une envie c’est qu’on lui donne son argent et qu’on s’en aille, ça doit être un bon chirurgien mais aucune envie d’être opérer par un homme comme lui » ;
  • « Il est réputé très hautain et expéditif. J’ai été choquée qu’il me demande de régler avant les injections comme si j’allais m’envoler. Je comptais faire une augmentation mammaire avec lui mais hors de question. Pas du tout à mon écoute, expéditif. Il parlait surtout du prix et me regardais à peine » ;
  • « il efface les questions qui lui conviennent pas sur son site web. C’est pas digne de confiance ».

La Cour d’appel relève que ces avis, aussi négatifs et déplaisants soient-ils, ne sont en réalité pas insultants, et ne comportent pas d’allégations mensongères.

La libre critique et l’expression subjective

S’agissant de ces avis émis sur la pratique d’un chirurgien esthétique, la Cour d’appel précise même qu’ils relèvent plutôt de la libre critique et de l’expression subjective.

En effet, ils constituent davantage, selon les termes de l’arrêt :

  • « une opinion ou un ressenti de patients déçus pour les deux premiers et un commentaire extérieur pour le troisième. En cela ils participent de l’enrichissement de la fiche professionnelle de l’intéressé et du débat qui peut s’instaurer entre les internautes et lui, notamment au moyen de réponse que le professionnel est en droit d’apporter à la suite des publications qu’il conteste ».

De la même manière, dans son ordonnance de référé du 12 avril 2019, le Président a estimé que :

  • « la publication d’avis d’internautes, sous cette fiche, n’est pas [non plus] manifestement illicite, la demanderesse ne pouvant d’ailleurs, en principe, soutenir qu’il ne serait pas légitime que toute personne puisse noter et donner son avis, une telle position n’étant pas compatible avec le principe de liberté d’expression ».

L’absence d’atteinte au droit des données personnelles

Dans son ordonnance de référé du 12 avril 2019, le Président a estimé, concernant la demande de suppression de la fiche professionnelle :

  • « que les informations mises en ligne et relatives à la demanderesse, portant sur son nom, l’adresse de son lieu d’exercice professionnel ou encore son numéro de téléphone professionnel sont certes des données à caractère personnel ;
  • « qu’elles ne relèvent pas, pour autant, de la sphère privée (…) ;
  • « que, dès lors, l’atteinte au droit des données personnelles n’est pas, à cet égard, manifestement démontrée ».

Et, pour répondre à l’interrogation relative à l’existence d’un intérêt légitime poursuivi par le responsable du traitement, il relève que :

  • « (…) l’identification de chaque professionnel concerné, comme sujet d’un forum sur lequel les internautes postent leurs avis, relèvent d’un intérêt légitime d’information du consommateur (…) » ;
  • « (…) la suppression pure et simple de la fiche de la demanderesse contreviendrait au principe de la liberté d’expression ».

Chloé Legris-Dupeux
Géraldine Camin
Lexing Pénal numérique et e-réputation

(1) CA Paris, pôle 1, ch. 8, du 22 mars 2019.
(2) TGI de Paris, ordonnance du 12 avril 2019.
(3) TGI Paris, ordonnance du 29 juin 2018.




Cyberhaine & Fake news

Cyberhaine & Fake newsVirginie Bensoussan-Brulé, Avocate et directrice du pôle Contentieux numérique du cabinet Lexing Alain Bensoussan Avocats fait le point sur Cyberhaine & Fake news. Elle est intervenue dans l’émission 50 nuances du net présentée par Nathalie Chiche sur la radio RCJ.

Une proposition de loi visant à lutter contre la haine sur internet a été déposée par Laetitia Avia, députée LREM, le mercredi 20 mars 2019.

Virginie Bensoussan-Brulé aborde la réglementation actuelle, mise en place par la LCEN, loi pour la confiance dans l’économie numérique notamment l’article 6 de cette loi. Elle présente la façon dont les intermédiaires techniques, comme les plateformes du type YouTube ou Twitter, les blogs ou les sites internet, doivent réagir lorsque l’un de leurs utilisateurs publie des contenus que l’on pourrait qualifier de « haineux ».

Toutefois leur champ d’action, avant toute saisie de la justice, est limité à une liste clairement définie par la loi de « contenus odieux manifestement illicites« .

La diffamation et l’injure sont des notions plus subtiles et ce sont elles qui devraient être explicitées par ce nouveau texte qui devrait définir les contenus « manifestement haineux ». Faire la distinction entre un discours simplement haineux et un débat d’idées, qui est protégé par la liberté d’expression, est très délicat.

Si l’internaute, auteur des propos en cause, est et reste totalement responsable de ses propos, la loi à venir impose aux intermédiaires techniques la mise en place d’outil efficaces pour dénoncer ces personnes.

Voir l’intégralité de l’interview

Isabelle Pottier
Directeur Études et Publications




Publication de tweets supprimés : que dit le droit ?

tweets supprimésVirginie Bensoussan-Brulé évoque pour Archimag les risques juridiques liés à la republication de tweets supprimés par leur auteur.

L’affaire a fait couler beaucoup d’encre : fort de ses 47 000 abonnés, le compte Twitter anonyme @FallaitPasSuppr s’attache à exhumer des tweets supprimés et les contenus gênants. Un compte, comme l’écrit la journaliste Clémence Jost dans l’article qu’elle consacre à ce compte pour le magazine Archimag, « adoré par certains, détesté par d’autres, et craint, parfois ».

Son auteur, qu’elle a interrogé, justifie sa motivation par un acte citoyen : « Je suis un observateur vigilant qui suit l’action de certains personnages publics (souvent payés par nos impôts) sur les réseaux sociaux. Je pense que l’on peut trouver plus d’informations dans un seul tweet supprimé que dans 1 000 autres ». Et celui-ci d’ajouter : « Mon action met également en lumière les magnifiques retournements de vestes de certains politiques (très nombreux dans ma timeline), qui twittent souvent dans le sens du vent et qui peinent parfois à assumer leurs idées dans la durée ». avant de confesser : « Je n’ai pas de ligne éditoriale, je m’efforce d’épingler tout le monde, de tous bords et de tous partis ».

Twitter : espace public ou privé ?

Selon l’administrateur du compte @FallaitPasSuppr, « dès qu’un twittos poste publiquement un tweet, ce tweet demeure dans l’espace public. Bien sûr, tout le monde à le droit à l’erreur, c’est pour cela que de nombreux twittos épinglés viennent régulièrement expliquer, de bonne foi, les raisons de leur suppression ».

Quant au reproche qui lui est fait d’agir sous anonymat, il rétorque : « Il y a selon moi une hypocrisie autour de la notion d’anonymat sur les réseaux sociaux. Beaucoup d’anti-anonymat hurlent sans réfléchir dès qu’ils voient un « pseudo » et se calment s’ils voient un nom et un prénom. Mais sont-ils au courant que Twitter ne réclame pas de carte d’identité lors d’une création de compte ? »

« Il est extrêmement dangereux de republier des contenus supprimés »

Clémence Jost a ensuite interrogé Virginie Bensoussan-Brulé, avocate à la Cour d’appel de Paris, directrice du pôle Contentieux numérique du Cabinet Lexing Alain Bensoussan avocats, afin qu’elle apporte son éclairage juridique sur la question.

A la question de savoir si Twitter est un espace public ou privé, Virginie Bensoussan-Brulé explique que, « sauf exception, lorsque l’on s’exprime sur Twitter, comme sur les autres plateformes, on est dans la sphère publique, par opposition à la correspondance privée. Et cela que l’on s’exprime sous sa vraie identité ou sous pseudonyme ». Et l’avocat d’ajouter : « D’ailleurs, en réalité nous ne sommes jamais totalement anonymes lorsque l’on s’exprime sous « pseudo » puisque les intermédiaires techniques, qu’ils soient français ou étrangers, conservent les données d’identification de leurs utilisateurs et peuvent être amenés à les communiquer, sur décision de justice, aux personnes qui auraient fait la demande ».

Tweets supprimés : exhumer des tweets est-il légal ?

Sur ce point, Virginie Bensoussan-Brulé précise que « le principe de la liberté d’expression s’applique sur Twitter, sauf abus (injures, diffamation…). Et le délai de prescription pour agir en cas d’abus est de 3 mois pour de la diffamation ou des injures publiques et d’un an pour des injures à caractère racial ou homophobe. Passé ce délai, il n’est plus possible d’intervenir ».

Pourtant, il se peut qu’une personne ait conservé les propos initialement publiés, à travers une capture d’écran par exemple. Dans ce cas, selon l’avocate, « si cette personne republie ces propos alors que ceux-ci contiennent une injure à l’égard d’un tiers, le délai de 3 mois ou 1 an repart et c’est celui qui a republié les propos qui en devient responsable. Quand bien même il n’est pas l’auteur de l’injure initiale. Il est donc extrêmement dangereux de republier des contenus supprimés ».

Eric Bonnet
Avocat, Lexing Alain Bensoussan Avocats
Directeur de la communication juridique