Yentxu (avatar)

Yentxu

Carta Academica est un collectif d'universitaires belges qui a décidé d’intervenir dans le débat public

Abonné·e de Mediapart

204 Billets

0 Édition

Billet de blog 14 mars 2024

Yentxu (avatar)

Yentxu

Carta Academica est un collectif d'universitaires belges qui a décidé d’intervenir dans le débat public

Abonné·e de Mediapart

Le Digital Services Act, quel impact pour la liberté d'expression en ligne ?

Le Digital Services Act est désormais applicable à tous les fournisseurs de services intermédiaires (accès à Internet, hébergeurs, réseaux sociaux, places de marché, moteurs de recherche, plateformes de partage de vidéos…). L’encadrement de la modération par ces acteurs occupe une place centrale dans le DSA, ce qui suscite des interrogations pour la liberté d’expression, par Alejandra Michel.

Yentxu (avatar)

Yentxu

Carta Academica est un collectif d'universitaires belges qui a décidé d’intervenir dans le débat public

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Régulation de la modération des contenus

Ces dernières semaines, l’entrée en application du Digital Services Act a connu un fort retentissement au sein du débat public.

Bien que le texte puisse éveiller des craintes pour la liberté d’expression, l’intervention législative était devenue plus que nécessaire. Certes, les facilités d’échanges sur les plateformes en ligne offrent de belles opportunités pour la diffusion d’opinions et pour le partage d’informations. On ne peut néanmoins tout s’autoriser sous couvert de la liberté d’expression. Pilier de la démocratie, elle offre une protection aux idées et aux informations qui « heurtent, choquent ou inquiètent »[1]. La liberté d’expression permet donc de titiller, de dénoncer des irrégularités ou des dysfonctionnements, voire d’exprimer des critiques acerbes. Elle ne tolère cependant pas les abus et les dérives. Pourtant, la « liberté d’expression » semble faire pousser les ailes de certains internautes qui s’estiment invincibles derrière leur smartphone. Au quotidien, le web est alimenté de propos haineux, d’insultes, de contenus violents, de désinformation, de publicité illégale ou encore de contrefaçons. Les acteurs du numérique ont donc été forcés à intervenir davantage que par le passé sur le contenu diffusé par les utilisateurs.

En réaction à ces dérives, l’Union européenne a choisi la voie de la régulation pour lutter contre la diffusion de contenus toxiques en ligne. Par ce biais, elle encadre également les pratiques de modération des intermédiaires du numérique. En raison du pouvoir considérable qu’ils exercent (volontairement ou non) sur le débat public à l’échelle mondiale, il n’était plus question de leur laisser carte blanche. En matière de modération, ces acteurs sont désormais soumis à des exigences relatives à la rédaction et à l’application des conditions générales, à la transparence de leurs pratiques, au traitement des signalement de contenus, à la justification des mesures de modération, aux voies de recours à la disposition des utilisateurs, au fonctionnement des systèmes de recommandation ou encore, pour les géants du net, à la mise en place de mesures pour réduire les risques liés à l’utilisation de leurs services.

Risques pour la liberté d’expression

Bon nombre de ces obligations visent les contenus diffusés par les utilisateurs, ce qui éveille quelques craintes pour la liberté d’expression (censure privée, contrôle du débat public, retrait excessif d’expressions licites…). Le législateur européen en est bien conscient. À maintes reprises, le texte souligne l’importance, pour les intermédiaires, d’appliquer les mesures de modération et de se soumettre aux exigences du DSA dans le respect de la liberté d’expression, de la liberté d’information et de la liberté des médias. Toutefois, des questionnements subsistent et il y a encore du pain sur la planche pour les personnes qui auront à appliquer ces dispositions. Que signifie concrètement l’application d’une mesure de modération dans le respect de la liberté d’expression ? Les employés des plateformes en ligne sont-ils bien équipés pour qualifier, souvent dans l’urgence, les contenus signalés par les utilisateurs ? Quelle place occupe encore le juge dans ce processus ? Comment savoir si la modération d’un contenu légal mais dommageable peut être perçue comme « nécessaire dans une société démocratique » comme le requiert l’article 10 de la Convention européenne des droits de l’Homme ? De quelle manière le contexte entourant la diffusion d’un contenu doit-il être pris en compte dans la décision de modérer ou non ?

Au-delà de ces considérations, la principale critique adressée au texte concerne l’absence de dérogation pour le contenu journalistique, pourtant largement débattue. Le DSA contient une définition extrêmement large du contenu illicite. En définitive, toutes les illégalités tombent dans le champ, qu’elles soient établies au niveau de l’Union ou par une législation nationale. Les obligations de diligence imposées aux intermédiaires visent indifféremment tous les contenus. L’inexistence d’une exclusion pour le « contenu journalistique » ou pour le « contenu diffusé à des fins de journalisme » signifie que les contenus informationnels relayés par les journalistes sur les réseaux sociaux peuvent faire l’objet de mesures de modération. Imaginons la mobilisation de dispositions sanctionnant la diffamation, la calomnie, l’injure ou encore l’offense, potentiellement à l’égard d’un État ou d’un « corps constitué », pour s’attaquer à un contenu d’intérêt général qui dérange. Nul besoin de rappeler la place précaire des médias dans certains pays, parfois au sein même de l’Union, dans lesquels la démocratie et l’État de droit battent quelque peu de l’aile… Dans un tel contexte, une dérogation pour le contenu journalistique constitue tout sauf une garantie extravagante pour la liberté de la presse. Cette dérogation a pourtant bien été prévue dans le règlement relatif à la lutte contre la diffusion de contenus terroristes en ligne. Elle est d’ailleurs revenue sur la table des négociations européennes avec le futur règlement sur la liberté des médias qui ajoute des garanties pour les mesures de modération des très grandes plateformes en ligne à l’égard du contenu diffusé par des fournisseurs de services de média. Il s’agit à l’évidence d’un pas dans la bonne direction, mais le contenu journalistique reste menacé par le DSA et par les pratiques de modération d’autres acteurs que les géants du net.

Un autre aspect pour lequel le DSA s’avère perfectible touche aux pratiques d’overcompliance, c’est-à-dire les pratiques consistant à bloquer ou à supprimer à l’excès des contenus afin d’éviter les sanctions. À partir du moment où le législateur fait en première ligne reposer la lutte contre les contenus illégaux sur les épaules des acteurs du numérique et les incite à la proactivité pour détecter et modérer les illégalités, l’instauration de réelles garanties pour éviter le retrait et le blocage d’expressions licites est primordiale. Des voies de recours sont à la disposition des utilisateurs pour contester les décisions des plateformes en ligne. Néanmoins, en cas de doute sur la nature d’un contenu, ces acteurs pourraient en première intention opter pour l’application d’une mesure de modération pour ne pas voir leur responsabilité engagée.

Une régulation nécessaire… mais des garanties appropriées

En résumé, le DSA n’ambitionne pas de faire basculer l’Europe dans une « dictature de la pensée unique ». Certes, des risques pour la liberté d’expression se font sentir, que ce soit en raison du rôle confié par le législateur à des acteurs privés pour combattre les dérives ou du flou qui entourent l’application de certaines dispositions du règlement. Entendons la critique et les préoccupations relatives à la protection de l’expression en ligne. Être conscients des faiblesses, des difficultés d’application et des zones d’ombre du texte offre aussi l’opportunité de mieux identifier les garanties qu’il reste à établir pour assurer une protection adéquate de la liberté d’expression des internautes. Ne soyons toutefois ni trop négatifs ni trop sceptiques. Accompagnons plutôt ces acteurs et guidons-les pour des pratiques de modération des contenus en ligne respectueuses des droits humains. Nul doute à cet égard qu’un travail colossal d’interprétation attend, dans les années à venir, le pouvoir judiciaire…

Alejandra Michel, Chercheuse Senior et Responsable de l’unité de recherche « Droit des médias » au Centre de Recherche Information Droit et Société de l’Université de Namur (CRIDS/NaDI, UNamur), pour Carta Academica (https://www.cartaacademica.org/).

Les points de vue exprimés dans les chroniques de Carta Academica sont ceux de leur(s) auteur(s) et/ou autrice(s) ; ils n’engagent en rien les membres de Carta Academica, qui, entre eux d’ailleurs, ne pensent pas forcément la même chose. En parrainant la publication de ces chroniques, Carta Academica considère qu’elles contribuent à des débats sociétaux utiles. Des chroniques pourraient dès lors être publiées en réponse à d’autres. Carta Academica veille essentiellement à ce que les chroniques éditées reposent sur une démarche scientifique.

[1] À ce propos, voyez l’attendu de principe énoncé par la Cour européenne des Droits de l’Homme en l’affaire Handyside contre Royaume-Uni (Cour eur. D.H., arrêt Handyside c. Royaume-Uni, 7 décembre 1976, req. n° 5493/72, §49).

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.