La modération des contenus deux ans après le Digital Services Act : quels enseignements pour demain ?

La modération des contenus deux ans après le Digital Services Act : quels enseignements pour demain ?

Le 9 avril 2026 s’est tenu, au sein des locaux de l’application de rencontre happn, une table ronde organisée par l’ADIJ (Association des Juristes Numériques) sur les enjeux en lien avec la modération des contenus. Plus précisément, l’évènement visait à apporter des éclairages théoriques et pratiques sur la mise en œuvre du Digital Services Act (DSA). 

La table ronde a accueilli un cercle restreint de spécialistes du sujet. La Chaire sur la modération des contenus y était représentée par Clara Tabuteau et Suzanne Vergnolle. Cette dernière a tenté de répondre à la question suivante : « La régulation des plateformes en ligne : jouent-elles le jeu ? ».

Dans cette perspective, Suzanne Vergnolle a retracé les objectifs des obligations de diligence prévues par le DSA, particulièrement les obligations de transparence à la charge des services intermédiaires. Ce faisant, elle a eu l’opportunité de présenter l’une des principales conclusions ressorties de l’évènement Hack the DSA : les rapports produits par les services intermédiaires sont d’une grande disparité et ne permettent pas toujours la reddition de comptes pour laquelle ils ont été institués. Pour pallier cette disparité, la Commission a institué un modèle uniformisant quelques éléments clés des rapports de transparence (période couverte, catégories de contenus modérés, informations communiquées). Progressivement déployée par les services, cette uniformisation minimale ne s’étend pas aux rapports sur les risques systémiques. Ces derniers sont préparés par les très grands services (VLOPs/VLOSEs) lesquels bénéficient d’une importante marge de manœuvre, tant sur la présentation des éléments que sur le fond. Ces documents adoptent parfois un ton auto-promotionnel, reniant leur rôle d’outil de transparence. Lors des échanges avec le public, c’est surtout le manque de données chiffrées qui permettraient de rendre ces documents plus objectifs et « contrôlables » qui a été déploré. Suzanne Vergnolle n’a pas manqué de rappeler le scandale provoqué par l’IA Grok sur le réseau social X : comment un tel événement a-t-il pu se produire, alors que les risques étaient maîtrisés sur le papier ? 

Au-delà des plateformes, la question de l’accès aux données s’étend à l’ensemble des acteurs. Signaleurs de confiance et autorités publiques sont également concernés par des obligations de transparence. Suzanne Vergnolle a alors appelé à ouvrir le débat sur la publicité des décisions des autorités de contrôle, dans l’intérêt d’une bonne mise en œuvre du DSA.

Par la suite, Madame Anne-Charlotte Gros, Vice-Présidente de l’ADIJ a invité Maître Anne Cousin, avocate chez Derriennic Associés à s’intéresser au rôle du juge en matière de protection de la liberté d’expression en ligne. Maître Cousin a exploré la question suivante : le DSA laisse-t-il la liberté d’expression à la main des plateformes ?

Grâce à une rétrospective minutieuse des régimes applicables et de leurs évolutions dans le temps, Maître Anne Cousin a rappelé que le juge dispose d’une place centrale dans la protection de la liberté d’expression, y compris en ligne. Toutefois, il fait face à de nombreux obstacles pour obtenir des informations sur les plateformes et leurs algorithmes. Duplication du contenu litigieux, établissement à l’étranger, coopération internationale sont autant d’étapes à franchir pour le juge comme les parties, qui allongent et complexifient la procédure. Maître Anne Cousin a souligné l’inversion lente mais certaine des rôles propres à la question de la liberté d’expression en ligne : « la plateforme devient juge si le contenu est manifestement illicite ; à l’inverse, le juge devient un peu modérateur dans son action ».

Enfin, le retour d’expérience de Madame Karima Ben Abdelmalek, CEO de l’application de rencontre happn, a offert un regard précieux sur la façon dont cette application se met en conformité avec le DSA. Quels contraintes, quels outils, et surtout quels résultats ressortent de cette mise en œuvre ?

Après avoir détaillé les mesures organisationnelles mises en place (existence d’une équipe technique dédiée et de modérateurs, notamment), Madame Karima Ben Abdelmalek a présenté les modalités de signalement de l’application happn. Afin de s’adapter à l’évolution des signalements traités et des contenus modérés, différents modèles d’intelligence artificielle ont progressivement été mis en place. Ils permettent de traiter efficacement les volumes croissants de contenus, afin d’assurer un espace de confiance pour ses utilisatrices et utilisateurs. En cohérence avec les valeurs de l’entreprise, la modération humaine reste systématique en cas de recours.

Madame Ben Abdelmalek a pu détailler les principales données issues du rapport de transparence publié pour la période 2025. Une observation très concrète a été soulevée par la CEO : afin d’optimiser le contenu et l’impact de ces rapports, il serait utile de mieux connaître les destinataires et les usages ultérieurs. Qui les lit, à quoi servent-ils ?

À l’issue de ces discussions, un constat a semblé s’imposer : ces retours d’expérience ont illustré les différents efforts de mise en œuvre du texte. Les questions du public expert n’ont pas manqué de nourrir les débats. Cet évènement a atteint son objectif : il a permis de tirer des enseignements pour demain. Si l’on devait n’en retenir que trois, ils seraient les suivants : un accès accru à des données objectives est nécessaire afin de mieux comprendre l’activité des plateformes en ligne. Cela permettra sans doute d’éclairer les usages ultérieur faits par la société civile. Quant au juge, il demeure un maillon essentiel de la protection des utilisateurs de plateformes et son action devrait être développée dans le cadre du contentieux lié à la modération des contenus.