Le Digital Services Act (DSA)
Rédigé par Emmanuel DUDRAGNE le . Publié dans Numérique.
Le Digital Services Act (DSA), ou règlement sur les services numériques, constitue une avancée majeure dans la régulation des plateformes en ligne. Il répond à une attente forte : mieux lutter contre les contenus illicites, la désinformation et les abus systémiques.
Cette régulation ambitieuse n’est pas sans risque. Mal calibrée ou appliquée de manière excessive, elle peut produire des effets inverses à ceux recherchés. Plusieurs dérives potentielles méritent d’être examinées avec rigueur.
Entre sur‑modération, fragmentation juridique et limites technologiques
Une modération à risque : entre protection et autocensure
La logique de responsabilité renforcée imposée aux plateformes crée un risque de sur-modération. Face à des sanctions importantes, les acteurs peuvent privilégier une approche prudente : supprimer plutôt que vérifier.
Ce phénomène, souvent qualifié de chilling effect, n’est pas théorique. Il peut conduire à la suppression de contenus pourtant légaux, au développement du shadowbanning (la restriction de la visibilité de l'utilisateur sans son avertissement préalable) et à la réduction de la pluralité des opinions.
Un cadre favorable aux grands acteurs plutôt qu’à l’innovation
Le DSA impose des obligations lourdes : audit, reporting, dispositifs de modération, transparence algorithmique.
Ces exigences, soutenables pour Google, Meta ou Amazon, représentent un coût disproportionné pour les PME et startups.
Cela pourra se traduire par le renforcement des positions dominantes, l’augmentation des barrières à l’entrée et le ralentissement de l’innovation européenne.
Pour une gouvernance numérique européenne plus équilibrée et protectrice des libertés
Une définition variable de l’illégalité en Europe
Par principe de subsidiarité, le DSA repose sur les législations nationales pour définir ce qui est illégal. Cela conduit à créer une fragmentation juridique : un contenu licite en France pouvant être illégal ailleurs, les plateformes doivent arbitrer entre 27 cadres différents.
Ce manque d’harmonisation introduit de l’incertitude juridique, des décisions incohérentes et un risque d’arbitraire incitant les plateformes à choisir la solution la plus contraignante de chaque pays.
Les limites structurelles de la modération algorithmique
Le recours massif à l’IA pour modérer les contenus pose plusieurs problèmes :
Erreurs de classification, biais systémiques, incapacité à contextualiser certains contenus (satire, débat politique, information complexe).
Les exemples typiques sont les suppressions abusives de contenus liés à des débats sensibles, notamment sur les thèmes de l’énergie, la santé et la géopolitique.
L’IA n’est pas incapable mais juste imparfaite car dépendante des données et consignes humaines.
Un instrument potentiellement détournable par les États
Le DSA vise à protéger les citoyens, mais son interprétation peut varier selon les contextes politiques.
Dans certaines démocraties fragiles, il existe les risques d’instrumentalisation de la régulation, de pression sur les plateformes, de restriction indirecte de la liberté d’expression ou de la presse. Etude de l’université de Yale
Une complexité administrative qui pénalise l’écosystème européen
Les obligations de conformité (rapports, audits, traçabilité) génèrent des coûts élevés, des besoins en expertise juridique et une complexité opérationnelle.
Pour certaines entreprises, cela peut conduire à limiter leur développement en Europe, ou à privilégier des marchés moins régulés.
Une régulation qui ne traite pas les causes profondes
Le DSA agit principalement sur les contenus, mais peu sur les mécanismes économiques des plateformes. Or les algorithmes favorisent l’engagement lequel favorise la polarisation qui elle-même peut alimenter la désinformation.
Sans agir sur ces logiques, la régulation reste partielle.
Des recours encore insuffisants pour les utilisateurs
Le DSA prévoit des mécanismes de recours, mais plusieurs limites subsistent :
délais longs, manque de lisibilité, dépendance à des organismes parfois peu indépendants et barrières linguistiques.
En conséquence il persiste l’asymétrie entre plateformes et utilisateurs.
Ce que propose la CFE-CGC : vers une régulation équilibrée
Pour limiter ces dérives, la CFE-CGC défend plusieurs orientations :
- Harmoniser la définition du contenu illégal à l’échelle européenne
- Créer des instances de contrôle réellement indépendantes, dotées de pouvoirs effectifs
- Soutenir les PME via des mécanismes d’allègement ou d’accompagnement
- Renforcer la transparence algorithmique, notamment sur les critères de modération
- Améliorer les recours utilisateurs : accessibilité, délais, indépendance, multilinguisme
Pour aller plus loin
DSA et DMA : tout savoir sur les nouveaux règlements européens | vie-publique.fr
Numérique : le règlement sur les services numériques entre en vigueur | economie.gouv.fr


