Le DSA au défi du pouvoir des plateformes

Depuis quelques mois, le règlement sur les services numériques (DSA – Digital Services Act) se retrouve sous le feu des critiques : ce texte, qui vise à créer «un environnement en ligne sûr [...] dans lequel les droits fondamentaux [...] sont efficacement protégés», est désormais accusé, notamment outre-Atlantique, d’être un outil de «censure». Ces offensives se sont significativement intensifiées depuis l’arrivée de Donald Trump pour son second mandat à la Maison-Blanche. En effet, sa réélection a constitué un moment charnière dans le positionnement des plateformes vis-à-vis de la réglementation européenne.

Dès janvier 2025, Mark Zuckerberg, patron de Meta (maison mère de Facebook, d’Instagram, de Threads et de WhatsApp), avait annoncé un changement de direction dans son approche de la modération des contenus. En effet, en préconisant un «retour aux sources» en matière de protection du free speech, Zuckerberg annonçait une «simplification» des politiques de modération des contenus sur ses plateformes. Concrètement, cela s’est traduit par la levée des restrictions sur des sujets jugés «woke», tels que la protection de la communauté LGBTQIA+ ou la lutte contre la haine en ligne. Toujours dans cette dynamique, le patron de Meta a aussi revendiqué son intention de protéger la liberté d’expression dans le monde entier par le biais d’une étroite collaboration avec le président états-unien, afin de contrer notamment les initiatives de réglementation européenne.

Ces attaques se sont institutionnalisées durant l’été 2025, lorsque l’administration Trump a créé une commission chargée d’étudier « la menace européenne sur la liberté d’expression et l’innovation américaine ». La fin de l’année 2025 a été marquée par de nouvelles offensives : à la suite d’une sanction prononcée par la Commission européenne à l’encontre du réseau social X, son patron Elon Musk, soutenu par l’administration Trump, a ouvertement accusé l’Union européenne de censure.

CETTE RHÉTORIQUE ADOPTÉE PAR LES PLATEFORMES RÉVÈLE UN CHANGEMENT DE CAP MARQUÉ, VOIRE UNE RUPTURE MAJEURE

Cette rhétorique adoptée par les plateformes révèle un changement de cap marqué, voire une rupture majeure. Précédemment, les plateformes avaient eu tendance
à demander l’instauration de «règles sûres», en vue de mettre en place un système efficace de gouvernance des contenus en ligne. Elles estimaient, en effet, que «des entreprises privées [ne] devraient [pas] être amenées à prendre autant de décisions importantes qui touchent aux valeurs démocratiques fondamentales».

L’adoption du DSA répondait dans une certaine mesure à cet appel. Il établit «un ensemble ciblé de règles obligatoires uniformes, efficaces et proportionnées au niveau de l’Union» pour les services numériques, tout en demeurant «agnostique» vis-à-vis des contenus. Les nombreuses attaques américaines visant ce texte pourraient néanmoins laisser croire que le DSA permet la censure. Pourtant, il ne faut pas se laisser berner par ces affirmations sans nuance.

Le DSA reconnaît, en réalité, d’importantes prérogatives aux plateformes pour mettre en œuvre leurs pratiques de modération, les contre-pouvoirs instaurés par le règlement étant assez limités. Que révèle donc cette réaction de la part des plateformes? Avant d’aborder cette question, il est opportun de présenter brièvement le DSA et, alors que ce règlement fête tout juste son deuxième anni- versaire, de mettre en lumière les constats tirés depuis son entrée en pleine application.

LE DSA RECONNAÎT [...] D’IMPORTANTES PRÉROGATIVES AUX PLATEFORMES POUR METTRE EN ŒUVRE LEURS PRATIQUES DE MODÉRATION, LES CONTRE-POUVOIRS INSTAURÉS PAR LE RÈGLEMENT ÉTANT ASSEZ LIMITÉS

Un objectif premier de transparence

Le DSA consacre une exemption conditionnelle de responsabilité des fournisseurs de services intermédiaires : ce règlement, en effet, maintient les exceptions en matière de responsabilité prévues par la directive sur le commerce électronique. Toutefois, il introduit aussi de nouvelles obligations de diligence raisonnable en matière de modération des contenus et de gestion des risques.

Il est important de noter que ces obligations de diligence raisonnable augmentent en fonction de la taille du service intermédiaire concerné et de son impact sur la société. Les obligations prévues par le DSA peuvent être conceptualisées selon une structure pyramidale. Ainsi, les obligations de diligence raisonnable et de transparence en matière de modération des contenus sont dictées, à des degrés divers, à l’ensemble des services intermédiaires. Tandis que les obligations d’atténuation des risques ne sont imposées qu’aux plateformes en ligne, avec des obligations supplémentaires pour les très grands services en ligne, ceux ayant «un nombre mensuel moyen de destinataires actifs du service dans l’Union égal ou supérieur à 45 millions», soit un impact considérable sur le marché européen.

La transparence est l’un des objectifs principaux du règlement : si l’ensemble des fournisseurs de services intermédiaires sont tenus de publier, au moins une fois par an, des rapports de transparence clairs et facilement compréhensibles sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés (art.15), des exigences supplémentaires s’appliquent aux plateformes en ligne (art.24), y compris dans le cadre de la publicité sur leurs interfaces (art. 26) et de leurs systèmes de recommandation (art. 27). Les très grands services en ligne sont, quant à eux, soumis à des exigences renforcées (art. 42) telles que fournir un registre en ligne sur la transparence de la publicité (art. 39) et ouvrir aux chercheurs l’accès à leurs données, afin qu’ils puissent étudier les risques systémiques (art. 40).

Le DSA renforce aussi les droits des utilisateurs. Les fournisseurs de services d’hébergement, y compris les plateformes en ligne et les très grands services, sont tenus de mettre en place des mécanismes de notification et d’action (art. 16), ainsi que de fournir un exposé des motifs clair et spécifique aux utilisateurs lorsque leur contenu a été soumis à des restrictions sur leurs services en raison de son illégalité ou de son incompatibilité avec les conditions générales d’utilisation du service (art.7). En outre, les très grands services en ligne sont dans l’obligation de proposer au moins une option pour les systèmes de recommandation qui n’est pas basée sur le profilage des utilisateurs (art. 38). La protection des utilisateurs se manifeste, enfin, par l’existence de voies de recours : le règlement impose aux plateformes en ligne, y compris les très grands services, non seulement de donner accès à un système interne efficace de traitement des réclamations (art. 20), mais aussi à un organisme extrajudiciaire de règlement des litiges (art. 21). Les signaleurs de confiance, c’est-à-dire ces entités disposant d’une expertise et de compétences particulières pour détecter, identifier et signaler les contenus illicites, bénéficient d’une voie prioritaire pour leurs signalements.

L’ÉLÉMENT LE PLUS NOVATEUR INTRODUIT PAR LE DSA EST LE CADRE DE GESTION DES RISQUES SYSTÉMIQUES

La protection des mineurs trouve pareillement une place privilégiée dans le cadre juridique établi par le DSA : les plateformes en ligne, y compris les très grands services, sont tenues de déployer des mesures appropriées et proportionnées pour garantir un niveau élevé de confidentialité, de sûreté et de sécurité des mineurs sur leurs services, et il leur est interdit de cibler ces derniers pour des fins publicitaires (art. 28).

Néanmoins, l’élément le plus novateur introduit par le DSA est le cadre de gestion des risques systémiques, qui s’applique uniquement aux très grands services. Ces derniers sont tenus de recenser, d’analyser et d’évaluer de manière diligente tout risque systémique découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services (art. 34). Une fois ces risques identifiés, ils doivent mettre en place des mesures d’atténuation raisonnables, proportionnées, efficaces, et surtout adaptées en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux (art. 35). Parmi les risques systémiques identifiés par le DSA figurent :

  1. la diffusion de contenus illicites,
  2. tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux,
  3. tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux, ainsi que sur la sécurité publique,
  4. tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs, ainsi que les conséquences négatives graves sur le bien-être physique et mental des personnes.

Pour compléter ce système d’évaluation interne, un système d’audits indépendants (art. 37) vise à détecter les potentielles lacunes dans la mise en œuvre du DSA.

Le DSA combine donc une réglementation prescriptive et une réglementation ouverte : comme l’explique très justement le professeur de droit Martin Husovec, le règlement «intervient de manière plus prescriptive lorsque les problèmes se sont déjà cristallisés et de manière moins prescriptive lorsque l’on en sait trop peu sur les causes et les effets et que de nouvelles pratiques continuent d’émerger».

LE DSA COMBINE DONC UNE RÉGLEMENTATION PRESCRIPTIVE ET UNE RÉGLEMENTATION OUVERTE

Une efficacité entravée

La mise en œuvre du DSA est déléguée à divers acteurs : ce texte consolide en quelque sorte le modèle pluraliste de régulation de la liberté d’expression qui, selon le juriste Jack Balkin, a émergé avec l’essor des plateformes elles-mêmes. Dans ce modèle de gouvernance, les régulateurs, les plateformes en ligne, les organisations de la société civile, les chercheurs ainsi que la société dans son ensemble participent, à des degrés divers, à l’interprétation et à l’application du règlement et, par conséquent, à la définition de concepts tels que le droit à la liberté d’expression ou les risques systémiques.

L’ARCHITECTURE RÉGLEMENTAIRE ÉTABLIE PAR LE DSA ENGENDRE UNE FORME DE DÉSÉQUILIBRE DU POUVOIR ENTRE LES DIFFÉRENTES PARTIES PRENANTES

Si le DSA constitue un levier essentiel de responsabilisation des plateformes, sa mise en œuvre nécessite toutefois encore quelques perfectionnements. En effet, l’architecture réglementaire établie par le DSA engendre une forme de déséquilibre du pouvoir entre les différentes parties prenantes : les plateformes en ligne et les autorités publiques sont en mesure d’exercer une influence plus importante que les organisations de la société civile, les organismes extrajudiciaires de règlement des litiges ou les voix marginalisées. Les plateformes en ligne, en particulier, restent les acteurs les mieux placés pour façonner les droits et les risques.

Le «droit des plateformes», c’est-à-dire les conditions générales d’utilisation de ces services, demeure le principal vecteur des décisions en matière de modération des contenus. D’après la base de données sur la transparence du DSA, au cours du premier semestre 2025, les plateformes ont pris plus de 9 milliards de décisions de modération des contenus, dont 99 % ont été prises de manière proactive sur la base de leurs propres conditions générales d’utilisation. Seule une fraction marginale est liée à des retraits pour contenu illicite.

LE «DROIT DES PLATEFORMES», C’EST-À-DIRE LES CONDITIONS GÉNÉRALES D’UTILISATION DE CES SERVICES, DEMEURE LE PRINCIPAL VECTEUR DES DÉCISIONS EN MATIÈRE DE MODÉRATION DES CONTENUS

Bien que le DSA impose que les conditions générales d’utilisation soient appliquées «de manière diligente, objective et proportionnée en tenant dûment compte des droits et des intérêts légitimes de toutes les parties impliquées, et notamment des droits fondamentaux des destinataires du service», les plateformes peuvent néanmoins apporter des modifications à ces termes de manière autonome. Un exemple pertinent en est la «simplification» des politiques de modération des contenus voulue par Meta, avec pour conséquence la suppression des protections sur des sujets considérés comme «woke», tels que la protection de la communauté LGBTQIA+ ou la lutte contre la haine en ligne.

SI LES RAPPORTS D’AUDITS INDÉPENDANTS VISENT À VÉRIFIER LA CONFORMITÉ DES PLATEFORMES AVEC LE DSA, LA MISE EN ŒUVRE DE CES DISPOSITIONS PRÉSENTE APPAREMMENT DES LACUNES

Si les rapports d’audits indépendants visent à vérifier la conformité des plateformes avec le DSA, la mise en œuvre de ces dispositions présente apparemment des lacunes. Ces rapports, en effet, seraient considérés comme un exercice procédural, qui ne s’engage pas de manière substantielle dans l’interprétation même du DSA. Par conséquent, il devient extrêmement difficile de mesurer la conformité des conditions générales d’utilisation avec les droits fondamentaux, des manquements passant facilement inaperçus.

Les très grands services en ligne pilotent de manière relativement autonome la gestion des risques systémiques présents sur leurs services. Nous disposons désormais de deux séries de rapports qui nous permettent de comprendre comment les services ont traité la question de l’identification, de l’évaluation et de l’atténuation des risques systémiques. Ces rapports révèlent que la plupart de ces services abordent cette démarche comme un exercice de conformité au lieu d’un questionnement capable potentiellement de remettre en cause leur modèle d’affaires. Ils suggèrent que les services se concentrent principalement sur le «décorum» des processus de reporting, en négligeant leur substance. Le ton autopromotionnel de certains de ces documents suggère également une approche formelle de la conformité. Ces observations se sont vérifiées à l’occasion de l’atelier «Hack the DSA», organisé dans le cadre de la Chaire sur la modération des contenus du Cnam en octobre 2025, durant lequel des experts se sont livrés à l’analyse des données publiées en vertu des mesures de transparence du DSA. En ce qui concerne les rapports sur les risques systémiques, l’un des principaux problèmes identifiés porte précisément sur la manière dont ces rapports sont produits et présentés, à savoir dans une grande variété de formats, avec des temporalités différentes et une certaine incohérence dans l’étude des catégories de risque. Le tout rend difficile la comparaison entre les différents services.

Parvenus à des conclusions similaires, d’autres chercheurs ont souligné des problèmes liés à la méthodologie utilisée. Dans le cas de Meta, le processus d’évaluation des risques se concentre principalement sur l’identification et l’évaluation des risques connus, bien que des processus aient également été mis en place pour aider à identifier les risques émergents et à recueillir des signaux sur les risques inconnus. Cette approche limitative adoptée par Meta est axée essentiellement sur les risques résultant du contenu et du comportement des utilisateurs qui enfreignent déjà leurs politiques. Étant donné que leur méthodologie repose sur leurs politiques, cette approche omettrait l’analyse des risques émergents non encore identifiés par les politiques de modération des contenus.

La possibilité, pour d’autres acteurs, d’influencer les pratiques de modération des contenus des plateformes reste très limitée. Ainsi, les décisions des organismes extrajudiciaires de règlement des litiges ne sont pas contraignantes : les services peuvent donc décider de ne pas les suivre. Ce manque de contrainte fixe une limite importante dans la mise en œuvre du dispositif, puisque le rôle de contre-pouvoir de ces organismes ne s’exerce pas alors qu’il pourrait permettre d’intégrer des considérations relatives aux droits fondamentaux dans les processus de modération des contenus.

LES DÉCISIONS DES ORGANISMES EXTRAJUDICIAIRES DE RÈGLEMENT DES LITIGES NE SONT PAS CONTRAIGNANTES : LES SERVICES PEUVENT DONC DÉCIDER DE NE PAS LES SUIVRE

Les plateformes en ligne restent donc en position de force dans les processus de modération des contenus, tant pour l’application de leurs conditions générales comme fondement de la quasi-totalité de leurs décisions de modération que pour ce qui a trait aux risques systémiques. Le DSA n’ayant même pas encore révélé tout son potentiel, il est inquiétant de voir certains services s’y opposer avec tant de fermeté. Comment interpréter cette réaction ?

La manipulation du concept de liberté d’expression

Les attaques émanant des plateformes en ligne (surtout états-uniennes), ainsi que de l’administration Trump, sont fondées sur la défense du droit à la liberté d’expression. Le DSA est dépeint comme un outil de censure, qui ciblerait le discours politique et qui viserait à étouffer le débat sur des sujets tels que l’immigration ou l’environnement. Le DSA, en outre, viserait particulièrement les discours politiques conservateurs.

LES ATTAQUES ÉMANANT DES PLATEFORMES EN LIGNE (SURTOUT ÉTATS-UNIENNES), AINSI QUE DE L’ADMINISTRATION TRUMP, SONT FONDÉES SUR LA DÉFENSE DU DROIT À LA LIBERTÉ D’EXPRESSION

Or, comme démontré précédemment, le DSA se limite à établir des obligations de transparence, de diligence et de gestion des risques. Le règlement ne vise en aucun cas la nature des contenus : loin de dicter ce qui peut ou ne peut pas être dit en ligne, le règlement renforce les principes de légalité et de transparence. Au contraire, ce texte limite l’arbitraire des plateformes et contre la censure potentielle qu’elles pourraient exercer sur la base de leurs conditions générales. Ainsi, c’est précisément grâce à la base de données sur la transparence établie par le DSA qu’il est possible d’obtenir les informations permettant de déterminer le nombre de cas dans lesquels les plateformes en ligne ont exercé une modération injustifiée. En effet, d’après les données sur les recours exercés par les utilisateurs, il ressort que, depuis 2024, sur un total de 165 millions, les décisions prises par les plateformes ont été renversées dans 30 % des cas. De surcroît, au cours du seul premier semestre 2025, les organismes de règlement extrajudiciaire ont examiné plus de 1 800 litiges liés à des contenus diffusés dans l’UE sur Facebook, sur Instagram et sur TikTok, annulant la décision des plateformes dans 52 % des affaires et proposant de rétablir les contenus et les comptes. Dans le cas de l’organisme de règlement extrajudiciaire Appeals Center Europe, le chiffre est édifiant : 75 % des décisions des services ont été infirmées.

LOIN DE DICTER CE QUI PEUT OU NE PEUT PAS ÊTRE DIT EN LIGNE, LE RÈGLEMENT RENFORCE LES PRINCIPES DE LÉGALITÉ ET DE TRANSPARENCE

Si les plateformes se souciaient réellement de la protection de la liberté d’expression, ces mesures de transparence constitueraient un atout à préserver et à
renforcer. Au contraire, leur rejet de ces mesures démontre, en réalité, une version
manipulée de la liberté d’expression, laquelle est alignée sur le discours dominant défendu par l’administration Trump. Cette manipulation s’effectue au détriment d’une protection effective des utilisateurs, en particulier des groupes marginalisés. Comme l’a clairement souligné David Kaye, ancien rapporteur spécial des Nations Unies sur la liberté d’expression, les mensonges de l’administration Trump ne concernent pas la liberté d’expression, mais ils sont affaire de pouvoir : ils visent à préserver celui du président, à promouvoir ses alliés d’extrême droite en Europe et à protéger ses partenaires du secteur des Big Tech.

SI LES PLATEFORMES SE SOUCIAIENT RÉELLEMENT DE LA PROTECTION DE LA LIBERTÉ D’EXPRESSION, CES MESURES DE TRANSPARENCE CONSTITUERAIENT UN ATOUT À PRÉSERVER ET À RENFORCER

Ce discours ne sert donc pas à renforcer la protection des droits humains, mais plutôt le pouvoir des plateformes, pour lesquelles le DSA est un obstacle. Les appels à la dérégulation, ainsi que les offensives à son encontre, démontrent que ce règlement européen, malgré ses imperfections, demeure un arsenal juridique fort pour réguler le secteur du numérique et encadrer le pouvoir de ses acteurs les plus puissants.

Tout le potentiel du DSA n’a pas encore été déployé. Afin d’encadrer davantage les processus de modération des contenus des plateformes, il est essentiel que le texte soit pleinement appliqué. Dans sa quête d’efficacité, cette application devrait garantir la participation de tous les acteurs concernés, afin de contrebalancer le pouvoir des plateformes et d’assurer une interprétation du règlement axée sur la protection des droits fondamentaux. Les offensives émanant de l’administration Trump et des plateformes sont sans doute le reflet de leur crainte de voir la censure contrecarrée et les plateformes responsabilisées.

* L’auteure remercie chaleureusement Suzanne Vergnolle pour ses remarques et ses conseils lors la rédaction de cet article.

Sources :

  • Base de données sur la transparence de la législation sur les services numériques, Commission européenne, transparency.dsa.ec.europa.eu
  • Balkin Jack M., Free speech in the algorithmic society: Big Data, private governance, and New School speech regulation, Faculty Scholarship Series, digitalcommons.law.yale.edu, 2018.
  • Balkin Jack M., « Free speech is a triangle », Columbia Law Review, 118, n° 7, 2018, p. 2011-2056.
  • Zuckerberg Mark, « Every new year of the last decade I set a personal challenge. », facebook.com, January 9, 2020.
  • EUR-Lex, « Règlement (UE) 2022/2065 du Parlement européen et du Conseil relatif à un marché unique des services numériques », Union européenne, 19 octobre 2022.
  • Husovec Martin, Principles of the Digital Services Act, Oxford University Press, Oxford (G.-B.), 2024.
  • Meta, « Regulation (EU) 2022/2065 Digital Services Act (DSA). Systemic Risk Assessment and Mitigation Report for Facebook », github.com, August 2024.
  • Bernard Tim, « Reading the systemic risk assessments for Major Speech Platforms: notes and observations », techpolicy.press, December 20, 2024.
  • Zuckerberg Mark, « It’s time to get back to our roots around free expression. We’re replacing fact checkers with community notes, simplifying our policies and focusing on reducing mistakes », vidéo, facebook.com, January 7, 2025.
  • Schneider Matti, « Meta retire des protections contre les discours haineux », opentermsarchive.org, 7 janvier 2025.
  • Committee on the Judiciary of the U.S. House of Representatives, « The Foreign Censorship Threat: How the European Union’s Digital Services Act compels Global Censorship and Infringes on American free speech », judiciary.house.gov, July 25, 2025.
  • Appeals Center Europe, « Transparency Report », appealscentre.eu, October 2025.
  • Denner Garance, Di Stefano Stefania, Vergnolle Suzanne, « Hack the DSA : une journée collaborative au service de la transparence numérique », Chaire sur la modération des contenus, regulation-tech.cnam.fr, 13 octobre 2025.
  • Holznagel Daniel, « Shortcomings of the first DSA Audits — and how to do better », dsa-observatory.eu, June 11, 2025.
  • Di Stefano Stefania, Vergnolle Suzanne, « Hack the DSA. Four actionable ways to improve DSA reporting », verfassungsblog.de, December 5, 2025.
  • Kaye David, « The Trump lie about Europe and why it matters », techpolicy.press, January 9, 2026.
  • Bâtir l’avenir numérique de l’Europe, « L’incidence de la législation sur les services numériques sur les plateformes numériques », Commission européenne, digital-strategy.ec.europa.eu, 17 février 2026.