Le DSA : la régulation des TGP, plateformes à risque systémique

TGPLe 15 décembre 2020, la Commission européenne a adopté une proposition de Règlement pour un marché unique des services numériques (ci-après le « Digital Services Act » ou le « DSA ») (1).

Cette proposition de texte, au-delà de proposer une grande avancée dans la lutte contre les contenus illicites en ligne (2), se penche avec une particulière attention sur la régulation des très grandes plateformes à risque systémique (ci-après « TGP »), reconnaissant alors la place de plus en plus importante de ces plateformes dans la société.

La notion de très grandes plateformes (TGP)

Les TGP désignent les plateformes accueillant plus de 45 millions d’utilisateurs actifs par mois. Cela représente 10% de la population de l’Union européenne (art. 25). Ce nombre n’est pas figé et évoluera proportionnellement à la population européenne. Les coordinateurs de services numériques compétents vérifieront tous les six mois les seuils pour chaque plateforme concernée. Une liste de ces TGP sera publiée et actualisée, afin de permettre une identification claire de ces dernières.

C’est en raison de leur dimension et du large public qu’elles visent, que les TGP présentent un risque systémique. Elles sont à ce titre soumises à des obligations supplémentaires. S’il est voté en l’état, le DSA fera peser des obligations contraignantes, notamment en matière de prévention et de transparence. Cette attention se manifeste également par des dispositions procédurales particulières.

Des obligations de prévention supplémentaires

La régulation de ces TGP passe par des obligations de prévention supplémentaires. Ainsi, le Digital Services Act oblige annuellement ces plateformes à évaluer et analyser les risques encourus par les utilisateurs (art. 26), et particulièrement au regard des systèmes de publicité, de la modération des contenus, et des systèmes de recommandation. Cette obligation d’analyse de risque d’inscrit bien évidemment dans l’objectif de lutte contre les contenus illicites.

Il s’agit, en raison des risques systémiques, de prévenir

  • la diffusion massive de contenus illicites ;
  • les atteintes aux droits et libertés fondamentaux des utilisateurs (vie privée, liberté d’expression, d’information, lutte contre les discriminations) ;
  • le respect des droits de l’enfant.

En outre, l’objectif est aussi d’éviter que des manipulations des services de ces plateformes entraînent des conséquences nuisibles pour la santé et la sécurité publique, les mineurs, ou encore les processus électoraux. Par ailleurs, le DSA prévoit (art. 70) que le Comité des Services numériques, qui assiste la Commission européenne, devra dresser annuellement une liste des problèmes systémiques les plus importants ou récurrents.

L’analyse de ces risques serai suivie de mesures concrètes de prévention. Pour cela, le DSA (art. 27) pose l’obligation pour les TGP de prendre toutes les mesures nécessaires pour atténuer les risques qu’elles auront évalués. Ces objectifs de prévention supposent néanmoins de contrôler le respect, par les TGP, des dispositions du DSA.

Des mesures de contrôles adaptées

La proposition de Règlement (art. 28) impose qu’une fois par an, les TGP fassent réaliser par un tiers extérieur, un audit pour vérifier leurs engagements. En cas de recommandations faites par l’audit, les TGP auront deux alternatives :

  • les respecter, ou
  • proposer des mesures alternatives.

Les autorités européennes pourront, en ce sens, exiger la communication de données attestant du respect des dispositions, à moins que ces dernières n’entraînent des failles de sécurité ou qu’elles touchent à des informations confidentielles (art. 31). La vérification de cette conformité passe par la désignation obligatoire d’un délégué à la conformité pour chaque TGP (interne ou externe à l’entreprise), chargé de contrôler le respect du texte, et de servir de relai avec les autorités compétentes (art. 32).

Enfin, les TGP auront incontestablement un rôle primordial à jouer dans le cadre du protocole de crise prévu par le texte (art. 37). Cette disposition a pour objet d’apporter une réponse rapide à la diffusion massive de contenus illicites, et de lutter contre la désinformation. Ce protocole pourra par exemple conduire à l’affichage sur les plateformes d’informations provenant des autorités nationales ou européennes. Nul doute que les TGP seront, dans ce contexte, des interlocuteurs privilégiés pour les autorités, du fait de leur taille et de leur influence.

La régulation par une transparence accrue des TGP

Les rédacteurs du DSA ont souhaité renforcer les obligations de transparence pesant sur les TGP, en raison des risques systémiques qu’elles présentent.

Ainsi, les TGP se verront imposer des obligations de transparence renforcées en matière de publicité en ligne (art. 30). Elles seront, si le texte est adopté en l’état, tenues d’indiquer quels annonceurs occupent leurs espaces publicitaires, de même que l’origine et le public de destination de ces publicités.

Cette régulation par la transparence passe également par des obligations de reporting imposées aux TGP.

En effet, le texte (art. 33) impose la publication semestrielle des rapports concernant la politique de modération des contenus (art. 13). De surcroît, les TGP devront également communiquer une fois par an les résultats de l’analyse de risques, de l’audit et de son exécution. Ces informations seront mises à la disposition du public sauf informations confidentielles ou risque de failles de sécurité. Quoi qu’il en soit, la totalité de ces informations sera communiquée aux coordinateurs de services numériques et à la Commission européenne.

Des spécificités procédurales

La volonté d’encadrer les TGP passe par des dispositions procédurales particulières concernant ces plateformes. En effet, le DSA (art. 50 à 60) prévoit des dispositions procédurales propres aux TGP, ce qui témoigne une nouvelle fois de l’attention particulière portée à celles-ci.

Cette vigilance se traduit principalement par un système de contrôle renforcé lorsqu’une TGP est en infraction avec l’une des dispositions du Règlement. Cette procédure particulière peut faire intervenir la Commission européenne et le Conseil européen des services numériques (ci-après le « CESN »). La plateforme mise en cause peut être amenée à mettre en œuvre un plan d’action. Ce dernier fait l’objet d’avis de la Commission et du CESN. Le coordinateur des services numériques compétent appréciera l’efficacité du plan pour mettre fin à l’infraction.

L’action de la Commission européenne

Autre singularité, la Commission européenne pourra, de sa propre autorité, agir contre les TGP suspectées d’avoir violé les dispositions du Règlement. Dans ces circonstances, la Commission européenne dispose d’un droit d’information auprès d’elles. Elle est également investie d’un pouvoir de contrôle duquel les TGP ne peuvent pas se soustraire. Les demandes de communication d’information et les contrôles sur place pourront faire l’objet d’un recours devant la Cour de justice de l’Union européenne.

La Commission européenne pourra prendre des mesures provisoires en cas de risque de préjudice grave pour les utilisateurs du service ; à la condition toutefois que ce risque soit imminent et constatable immédiatement. Si la TGP surveillée ne respecte pas ses engagements, elle peut se voir infliger une amende (art. 59) pouvant atteindre 6% du chiffre d’affaires mondial. On imagine bien la dimension dissuasive d’une telle amende pour des groupes internationaux comme ces très grandes plateformes.

Le projet de Règlement doit encore passer par la procédure ordinaire de l’Union européenne ; mais l’intention des rédacteurs est claire : reconnaître l’importance de ces plateformes de nos jours, en prenant l’initiative de les réguler afin d’en prévenir les risques dans une logique de transparence.

Alexandra Massaux
Barthélémy Busse
Lexing Contentieux Numérique 

(1) Proposal for a Regulation of the European Parliament and of the Council on a single market for digital services (Digital Services Act), 15 décembre 2020, COM (2020) 825 final, 2020/0361 (COD)
(2) Le Digital Services Act : une avancée dans la régulation des contenus illicites en ligne, Post du 14 janvier 2021




Le Digital Services Act : une avancée dans la régulation des contenus illicites en ligne

Contenus illicites

Le projet Digital Services Act permet une avancée notable dans la modération des contenus illicites en ligne.

Le Digital Services Act : une avancée dans la régulation des contenus illicites en ligne

Le 15 décembre 2020, la Commission européenne a adopté une proposition de Règlement pour un marché unique des services numériques (ci-après le « Digital Services Act ») (1) qui constitue une avancée considérable dans la lutte contre la publication et la diffusion des contenus illicites en ligne.

Cet objectif de modération des contenus passe par d’autres obligations imposées aux prestataires de services en ligne. Ainsi, la lutte contre les contenus illicites requiert nécessairement des impératifs de transparence, mais fait également peser un certain nombre d’obligations d’information sur les prestataires.

Les moyens mis en œuvre pour modérer ces contenus doivent respecter les droits et libertés fondamentaux, ainsi qu’en atteste l’article 7 qui reprend formellement la prohibition d’une surveillance généralisée, qui porterait une atteinte disproportionnée à la liberté d’expression, de réception d’information, mais aussi à la liberté d’entreprendre.

Ainsi bien qu’il ne soit pas imposé aux prestataires de rechercher activement les contenus illicites, le Digital Services Act comporte des nouveautés notables en matière de modération de contenus.

De nouvelles obligations en matière de modération de contenu

Le Digital Services Act définit un contenu illégal comme toute information, qui, en elle-même ou par référence à une activité (y compris la vente de produits ou la fourniture de services), n’est pas conforme avec le droit de l’Union européenne ou le droit national d’un État membre.

L’ensemble des prestataires de services intermédiaires est soumis à des obligations de modération des contenus illicites sur Internet. L’article 12 de la proposition de Règlement dispose que le prestataire doit clairement exprimer les moyens mis en œuvre pour modérer les contenus, que ce soit de manière automatisée (par algorithme) ou par des moyens humains.

Ainsi, tous les prestataires devront prendre des mesures objectives et proportionnées pour modérer les contenus illicites.

Le texte va plus loin en imposant à certains d’entre eux des obligations additionnelles.

Hébergeurs et plateformes en ligne

L’un des apports les plus notables est certainement la mise en place d’un système de notification des contenus illicites, pour les utilisateurs (article 14) qui doit leur permettre d’exprimer les raisons pour lesquelles ils pensent qu’un contenu est illicite. En effet, l’instauration de ce mécanisme fait peser une présomption de connaissance du contenu illicite sur l’hébergeur, qui sera alors responsable du contenu mis en ligne sur sa plateforme, et qui oblige donc l’hébergeur à agir rapidement pour supprimer ou désactiver l’accès au contenu illégal. Cette présomption est clairement posée au paragraphe 3 de l’article 14 précité :

« Notices that include the elements referred to in paragraph 2 shall be considered to give rise to actual knowledge or awareness for the purposes of Article 5 in respect of the specific item of information concerned »

En outre, il incombe à l’hébergeur d’informer l’utilisateur de la décision de retrait du contenu illicite ou de la désactivation de l’accès à ce contenu, en motivant les raisons de cette décision (portée territoriale, faits et circonstances, existence ou non d’algorithmes de motivation, possibilités de recours etc.).

Les plateformes en ligne

Les plateformes en ligne (à l’exception des micros et petites entreprises – article 16) sont soumises à des règles additionnelles.

Elles devront mettre en place un système gratuit de traitement interne destiné à accueillir les recours contre les décisions de suppression ou de désactivation d’un contenu (article 17).

La mise en place de signaleurs de confiance (article 19) constitue une nouveauté notable du texte. Ils seront labellisés par un Coordinateur des services numériques, et devront disposer de compétences et d’expertises dans la modération des contenus illicites. Une liste de ces signaleurs sera tenue publique et mise à jour régulièrement.

Pour pallier les risques d’abus, l’article 20 du Digital Services Act prévoit que les utilisateurs de la plateforme qui auraient signalés de manière infondée trop de contenu pourront se voir suspendre leur accès aux fonctions de signalement pendant un temps raisonnable.

Les « très grandes » plateformes

Les très grandes plateformes font l’objet d’obligations spécifiques en raison de leur risque systémique. Elles regroupent les plateformes qui comptent plus de 45 millions d’utilisateurs actifs chaque mois (10% de la population de l’UE).

Aux termes de l’article 26, les très grandes plateformes ont l’obligation (en plus de celles précitées) de procéder à des analyses de leurs risques d’impact systémique, et notamment des risques de diffusion de contenus illicites. Ces analyses d’impact sont suivies d’une obligation d’atténuation des risques (article 27) en coopération avec les autorités (Coordinateurs de services numériques, Commission européenne, Conseil européen aux services numériques).

En outre, les très grandes plateformes doivent publier tous les six mois, des rapports sur les moyens mis en œuvre pour modérer leur contenu.

Enfin, eu égard à l’influence et la taille de ces plateformes, l’article 37 leur octroie un rôle de premier plan dans la prévention de la diffusion de masse des contenus illicites. En cas de crise (pandémie, catastrophe naturelle, terrorisme), la Commission européenne encourage ces plateformes à mettre en place un plan d’action et à afficher certaines informations fournies par les autorités des Etats membres en rapport avec la crise.

Le Digital Services Act doit désormais passer par la procédure législative ordinaire de l’Union européenne. Il reste à voir les éventuelles modifications de ce texte qui s’attaque, à n’en pas douter, avec vigueur aux contenus illicites.

Alexandra Massaux
Barthélémy Busse
Lexing Contentieux numérique

(1) Proposal for a Regulation of the European Parliament and of the Council on a single market for digital services (Digital Services Act), 15 décembre 2020, COM (2020) 825 final, 2020/0361 (COD)