Le Digital Services Act : une avancée dans la régulation des contenus illicites en ligne

Contenus illicites

Le projet Digital Services Act permet une avancée notable dans la modération des contenus illicites en ligne.

Le Digital Services Act : une avancée dans la régulation des contenus illicites en ligne

Le 15 décembre 2020, la Commission européenne a adopté une proposition de Règlement pour un marché unique des services numériques (ci-après le « Digital Services Act ») (1) qui constitue une avancée considérable dans la lutte contre la publication et la diffusion des contenus illicites en ligne.

Cet objectif de modération des contenus passe par d’autres obligations imposées aux prestataires de services en ligne. Ainsi, la lutte contre les contenus illicites requiert nécessairement des impératifs de transparence, mais fait également peser un certain nombre d’obligations d’information sur les prestataires.

Les moyens mis en œuvre pour modérer ces contenus doivent respecter les droits et libertés fondamentaux, ainsi qu’en atteste l’article 7 qui reprend formellement la prohibition d’une surveillance généralisée, qui porterait une atteinte disproportionnée à la liberté d’expression, de réception d’information, mais aussi à la liberté d’entreprendre.

Ainsi bien qu’il ne soit pas imposé aux prestataires de rechercher activement les contenus illicites, le Digital Services Act comporte des nouveautés notables en matière de modération de contenus.

De nouvelles obligations en matière de modération de contenu

Le Digital Services Act définit un contenu illégal comme toute information, qui, en elle-même ou par référence à une activité (y compris la vente de produits ou la fourniture de services), n’est pas conforme avec le droit de l’Union européenne ou le droit national d’un État membre.

L’ensemble des prestataires de services intermédiaires est soumis à des obligations de modération des contenus illicites sur Internet. L’article 12 de la proposition de Règlement dispose que le prestataire doit clairement exprimer les moyens mis en œuvre pour modérer les contenus, que ce soit de manière automatisée (par algorithme) ou par des moyens humains.

Ainsi, tous les prestataires devront prendre des mesures objectives et proportionnées pour modérer les contenus illicites.

Le texte va plus loin en imposant à certains d’entre eux des obligations additionnelles.

Hébergeurs et plateformes en ligne

L’un des apports les plus notables est certainement la mise en place d’un système de notification des contenus illicites, pour les utilisateurs (article 14) qui doit leur permettre d’exprimer les raisons pour lesquelles ils pensent qu’un contenu est illicite. En effet, l’instauration de ce mécanisme fait peser une présomption de connaissance du contenu illicite sur l’hébergeur, qui sera alors responsable du contenu mis en ligne sur sa plateforme, et qui oblige donc l’hébergeur à agir rapidement pour supprimer ou désactiver l’accès au contenu illégal. Cette présomption est clairement posée au paragraphe 3 de l’article 14 précité :

« Notices that include the elements referred to in paragraph 2 shall be considered to give rise to actual knowledge or awareness for the purposes of Article 5 in respect of the specific item of information concerned »

En outre, il incombe à l’hébergeur d’informer l’utilisateur de la décision de retrait du contenu illicite ou de la désactivation de l’accès à ce contenu, en motivant les raisons de cette décision (portée territoriale, faits et circonstances, existence ou non d’algorithmes de motivation, possibilités de recours etc.).

Les plateformes en ligne

Les plateformes en ligne (à l’exception des micros et petites entreprises – article 16) sont soumises à des règles additionnelles.

Elles devront mettre en place un système gratuit de traitement interne destiné à accueillir les recours contre les décisions de suppression ou de désactivation d’un contenu (article 17).

La mise en place de signaleurs de confiance (article 19) constitue une nouveauté notable du texte. Ils seront labellisés par un Coordinateur des services numériques, et devront disposer de compétences et d’expertises dans la modération des contenus illicites. Une liste de ces signaleurs sera tenue publique et mise à jour régulièrement.

Pour pallier les risques d’abus, l’article 20 du Digital Services Act prévoit que les utilisateurs de la plateforme qui auraient signalés de manière infondée trop de contenu pourront se voir suspendre leur accès aux fonctions de signalement pendant un temps raisonnable.

Les « très grandes » plateformes

Les très grandes plateformes font l’objet d’obligations spécifiques en raison de leur risque systémique. Elles regroupent les plateformes qui comptent plus de 45 millions d’utilisateurs actifs chaque mois (10% de la population de l’UE).

Aux termes de l’article 26, les très grandes plateformes ont l’obligation (en plus de celles précitées) de procéder à des analyses de leurs risques d’impact systémique, et notamment des risques de diffusion de contenus illicites. Ces analyses d’impact sont suivies d’une obligation d’atténuation des risques (article 27) en coopération avec les autorités (Coordinateurs de services numériques, Commission européenne, Conseil européen aux services numériques).

En outre, les très grandes plateformes doivent publier tous les six mois, des rapports sur les moyens mis en œuvre pour modérer leur contenu.

Enfin, eu égard à l’influence et la taille de ces plateformes, l’article 37 leur octroie un rôle de premier plan dans la prévention de la diffusion de masse des contenus illicites. En cas de crise (pandémie, catastrophe naturelle, terrorisme), la Commission européenne encourage ces plateformes à mettre en place un plan d’action et à afficher certaines informations fournies par les autorités des Etats membres en rapport avec la crise.

Le Digital Services Act doit désormais passer par la procédure législative ordinaire de l’Union européenne. Il reste à voir les éventuelles modifications de ce texte qui s’attaque, à n’en pas douter, avec vigueur aux contenus illicites.

Alexandra Massaux
Barthélémy Busse
Lexing Contentieux numérique

(1) Proposal for a Regulation of the European Parliament and of the Council on a single market for digital services (Digital Services Act), 15 décembre 2020, COM (2020) 825 final, 2020/0361 (COD)

Retour en haut