Le Digital Services Act (DSA)

Le Digital Services Act (DSA), ou règlement sur les services numériques, constitue une avancée majeure dans la régulation des plateformes en ligne. Il répond à une attente forte : mieux lutter contre les contenus illicites, la désinformation et les abus systémiques.

Cette régulation ambitieuse n’est pas sans risque. Mal calibrée ou appliquée de manière excessive, elle peut produire des effets inverses à ceux recherchés. Plusieurs dérives potentielles méritent d’être examinées avec rigueur.


Entre sur‑modération, fragmentation juridique et limites technologiques

Une modération à risque : entre protection et autocensure

La logique de responsabilité renforcée imposée aux plateformes crée un risque de sur-modération. Face à des sanctions importantes, les acteurs peuvent privilégier une approche prudente : supprimer plutôt que vérifier.

Ce phénomène, souvent qualifié de chilling effect, n’est pas théorique. Il peut conduire à la suppression de contenus pourtant légaux, au développement du shadowbanning (la restriction de la visibilité de l'utilisateur sans son avertissement préalable) et à la réduction de la pluralité des opinions.

Un cadre favorable aux grands acteurs plutôt qu’à l’innovation

Le DSA impose des obligations lourdes : audit, reporting, dispositifs de modération, transparence algorithmique.

Ces exigences, soutenables pour Google, Meta ou Amazon, représentent un coût disproportionné pour les PME et startups.

Cela pourra se traduire par le renforcement des positions dominantes, l’augmentation des barrières à l’entrée et le ralentissement de l’innovation européenne.

Pour une gouvernance numérique européenne plus équilibrée et protectrice des libertés

Une définition variable de l’illégalité en Europe

Par principe de subsidiarité, le DSA repose sur les législations nationales pour définir ce qui est illégal. Cela conduit à créer une fragmentation juridique : un contenu licite en France pouvant être illégal ailleurs, les plateformes doivent arbitrer entre 27 cadres différents.

Ce manque d’harmonisation introduit de l’incertitude juridique, des décisions incohérentes et un risque d’arbitraire incitant les plateformes à choisir la solution la plus contraignante de chaque pays.

Les limites structurelles de la modération algorithmique

Le recours massif à l’IA pour modérer les contenus pose plusieurs problèmes :

Erreurs de classification, biais systémiques, incapacité à contextualiser certains contenus (satire, débat politique, information complexe).

Les exemples typiques sont les suppressions abusives de contenus liés à des débats sensibles, notamment sur les thèmes de l’énergie, la santé et la géopolitique.

L’IA n’est pas incapable mais juste imparfaite car dépendante des données et consignes humaines.

Un instrument potentiellement détournable par les États

Le DSA vise à protéger les citoyens, mais son interprétation peut varier selon les contextes politiques.

Dans certaines démocraties fragiles, il existe les risques d’instrumentalisation de la régulation, de pression sur les plateformes, de restriction indirecte de la liberté d’expression ou de la presse. Etude de l’université de Yale

 

Une complexité administrative qui pénalise l’écosystème européen

Les obligations de conformité (rapports, audits, traçabilité) génèrent des coûts élevés, des besoins en expertise juridique et une complexité opérationnelle.

Pour certaines entreprises, cela peut conduire à limiter leur développement en Europe, ou à privilégier des marchés moins régulés.

Une régulation qui ne traite pas les causes profondes

Le DSA agit principalement sur les contenus, mais peu sur les mécanismes économiques des plateformes. Or les algorithmes favorisent l’engagement lequel favorise la polarisation qui elle-même peut alimenter la désinformation.

Sans agir sur ces logiques, la régulation reste partielle.

Des recours encore insuffisants pour les utilisateurs

Le DSA prévoit des mécanismes de recours, mais plusieurs limites subsistent :

délais longs, manque de lisibilité, dépendance à des organismes parfois peu indépendants et barrières linguistiques.

En conséquence il persiste l’asymétrie entre plateformes et utilisateurs.


Ce que propose la CFE-CGC : vers une régulation équilibrée

Pour limiter ces dérives, la CFE-CGC défend plusieurs orientations :

  1. Harmoniser la définition du contenu illégal à l’échelle européenne
  1. Créer des instances de contrôle réellement indépendantes, dotées de pouvoirs effectifs
  1. Soutenir les PME via des mécanismes d’allègement ou d’accompagnement
  1. Renforcer la transparence algorithmique, notamment sur les critères de modération
  1. Améliorer les recours utilisateurs : accessibilité, délais, indépendance, multilinguisme

 

Pour aller plus loin

DSA et DMA : tout savoir sur les nouveaux règlements européens | vie-publique.fr

Comment la législation sur les services numériques améliore la transparence en ligne | Bâtir l’avenir numérique de l’Europe

Numérique : le règlement sur les services numériques entre en vigueur | economie.gouv.fr

Numérique

Nos coordonnées

CFE-CGC Orange
10-12 rue Saint Amand
75015 Paris Cedex 15

   
nous contacter
01 46 79 28 74
01 40 45 51 57

Epargne

Formation

Siège : CFE-CGC Orange - 89 Bd de Magenta, 75010 PARIS - SIRET 50803050900030 - 9420Z
Mentions Légales - Protection des données - Accès rédacteur