Conférence NetGouv 28 mai 2025 : « Démocratie sous influence. Quelle gestion des contenus en ligne en période électorale ? »
Le 28 mai 2025, la Chaire sur la modération des contenus a eu le plaisir d’organiser une table-ronde dans le cadre de la conférence #NetGouv 2025. Cette conférence était organisée par le groupe de travail sur la gouvernance et la régulation d’Internet du groupement Internet, IA et Société du CNRS. Le panel « Démocraties sous influence » a permis d’accueillir trois intervenants : Stefania Di Stefano, chercheuse postdoctorale au sein de la chaire ; Arnaud Vergnes, Government Affairs & Public Policy Manager pour Google ; et Vincent Berthier, responsable du Tech Desk de Reporters sans frontières (RSF).

Stefania Di Stefano a ouvert la table ronde en présentant deux axes de réflexion. D’une part, les effets des contenus circulant sur les plateformes en ligne vis-à-vis du discours civique et des processus électoraux. D’autre part, l’efficacité des régimes juridiques qui visent à répondre à ces enjeux. Suivant cette dynamique, la discussion s’est déroulée en deux temps.
Le premier axe abordait la question des risques spécifiques liés à l’utilisation des réseaux sociaux pendant les périodes électorales. À ce sujet, les deux intervenants ont illustré les risques identifiés dans le cadre de leur expérience ainsi que les difficultés majeures liées à l’évaluation de ces risques.
Arnaud Vergnes a relevé deux types de difficultés présentes sur les réseaux sociaux pour déstabiliser le scrutin : la désinformation (sur des questions de société et des questions politiques mais aussi sur les modalités de vote elles-mêmes) et les menaces cyber visant des partis politiques. Il a indiqué que Google dispose notamment d’une équipe, le « Threat Intelligence Group », mise en place pour détecter ce type de menaces cyber. Pour autant, selon lui, la difficulté n’est pas tant de détecter les risques, mais aussi d’identifier les formes qu’ils prennent et de les prévenir. Cette difficulté est d’autant plus importante que les risques peuvent avoir des impacts préjudiciables variés.
Vincent Berthier a ensuite souligné que l’enjeu principal pendant les périodes électorales est la désinformation, d’où l'importance de la capacité des journalistes et des médias de rendre accessible une information de qualité. Il a indiqué que l’utilisation des réseaux sociaux perturbe la qualité de l’information reçue par le citoyen, notamment par la polarisation et l’exclusion de certains sujets du débat public. Pour lui, l’une des questions fondamentales aujourd’hui est l’encadrement de la circulation de l’information en ligne. Il a insisté sur le fait que les médias ont des droits et des devoirs, y compris une responsabilité éthique à couvrir les débats sensibles en période électorale.
Après avoir posé les enjeux généraux et les risques liés à l’utilisation des réseaux sociaux en période électorale, Stefania Di Stefano a posé le contexte législatif européen pour encadrer ces pratiques, entamant ainsi le deuxième axe de discussion. Elle a présenté notamment le règlement sur les services numériques (DSA), insistant sur les obligations d’identification et d’atténuation des risques systémiques pesant sur les très grands services en ligne. Ces risques incluent notamment la diffusion de contenus illicites ou tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique, et couvrent donc un champ d’application très étendu. Elle a également mentionné le récent règlement relatif à la transparence et au ciblage de la publicité à caractère politique, qui impose des obligations de transparence et de diligence raisonnable. Il couvre toute publicité conçue dans le but d’influencer les résultats d’une élection ou d’un référendum.
Elle a alors interrogé chacun des intervenants sur la manière dont ils ont été affectés par la mise en application de ces textes. La première question a été celle de la mise en conformité de Google et de leur approche concernant l’identification des risques systémiques.
Pour y répondre, Arnaud Vergnes a rappelé tout d’abord que la conformité au DSA repose principalement sur la transparence. Google dispose, pour faire face à ces obligations, d’un centre de transparence public dédié aux informations sur la modération des contenus, ainsi que d’un centre en matière de publicité en ligne. Il a néanmoins relevé une difficulté à laquelle l’entreprise a dû faire face : l’accès aux données des chercheurs, pour laquelle elle a dû déployer de nouveaux moyens.
Pour ce qui est de l’identification des risques systémiques, il a expliqué la méthodologie suivie par Google, qui consiste à classifier et identifier les quatre types de risques systémiques présents dans le DSA. La méthodologie se déroule en six étapes : classifier ; identifier ; évaluer (selon la sévérité du risque et sa fréquence) ; remédier (grâce à des outils techniques, à l’IA, à la prévention ou encore à la modération) ; documenter ; et publier pour rendre des comptes.
Stefania Di Stefano a ensuite interrogé Vincent Berthier sur les effets concrets des textes européens sur la protection des démocraties et sur la qualité de l’information.
Vincent Berthier a affirmé que si, pour le moment, il était difficile de constater un effet visible, cela s’expliquait peut-être par l’attente de normes complémentaires, comme le code de conduite contre la désinformation entrant en application le 1ᵉʳ juillet, auquel RSF a contribué. Dans le code de conduite, l’un des premiers pas vers la valorisation du travail journalistique a été de demander le marquage des contenus par des personnes qui respectent les normes journalistiques et de les faire bénéficier d’avantages algorithmiques. Néanmoins, RSF milite pour une régulation plus ambitieuse, pour une refonte du système et de la logique globale des plateformes, laquelle est actuellement préjudiciable au journalisme. En effet, selon Vincent Berthier, les médias produisent une information plus aboutie et souvent plus nuancée, ce qui est mal adapté au système des plateformes.
Finalement, Stefania Di Stefano a abordé la protection des droits fondamentaux. Elle a indiqué que la recherche d’un équilibre entre la protection du débat public et celle du droit à la liberté d’expression est un défi majeur dans la mise en œuvre des textes européens. Par ailleurs, en vertu du droit international, toute restriction à la liberté d’expression doit respecter des critères très précis : elle doit être fixée par la loi, et notamment être nécessaire pour protéger un des intérêts légitimes identifiés par les conventions internationales, et proportionnée à l’objectif visé.
Or, le DSA se limite à des obligations « de procédure », mais n’apporte pas de définition précise des contenus à restreindre. Ni des contenus illicites. Ni de la désinformation. Ni même des risques systémiques. Dès lors, Stefania Di Stefano s’est inquiétée que le règlement soit sujet à une mise en « conformité cosmétique », purement formelle, au détriment de la protection effective des droits. Elle ajoute que les textes qui devraient « aider » les entreprises à définir les risques systémiques ne sont pas nécessairement conformes au droit à la liberté d’expression.
Les intervenants ont donc été questionnés sur le point de savoir si les obligations juridiques suffisent à garantir l’intégrité des procédures électorales et des démocraties face aux différentes menaces présentes sur les services numériques. Enfin, elle a interrogé les intervenants sur la possibilité d’évaluer l’impact des différentes législations européennes en lien avec les récentes élections, comme les élections présidentielles en Roumanie.
Arnaud Vergnes a partagé la préoccupation exprimée par Stefania Di Stefano au regard des risques d’atteintes à la liberté d’expression. Il a mentionné pour illustrer ce risque le règlement européen de lutte contre le terrorisme qui impose aux plateformes de retirer des contenus en une heure sous peine de sanctions très élevées. Il a estimé que la modération ne doit pas être vue que comme un instrument de censure. Ainsi, bien que les principes directeurs de Google selon lui soient la neutralité et l’honnêteté, certaines requêtes sensibles sur le moteur de recherche, notamment en période d’élections politiques, peuvent faire l’objet d’un traitement particulier. Google a notamment conclu des partenariats avec des acteurs pertinents comme le parlement européen pour faire remonter des résultats fiables qui font autorité. Ce type de modération permet selon lui une meilleure régulation sans reposer sur le retrait de contenus.
Quant aux impacts du DSA, il a souligné le fait que le texte s’inspire de pratiques déjà mises en place par certaines plateformes, comme les partenariats avec certains acteurs (partenaires de confiance, désignés comme « signaleurs de confiance » par le DSA) qui existaient antérieurement de manière volontaire. Il a ensuite mentionné plusieurs pratiques et projets mis en place par Google pour lutter contre la désinformation, comme des outils d’IA, ou encore le « Project Shield », qui permet de protéger certains sites web, et notamment les sites de presse et les sites d’informations sur les élections, contre certaines attaques numériques.
Vincent Berthier, quant à lui, est revenu sur la question de la censure sur les réseaux sociaux. Il a cette fois-ci pris le contrepied des arguments déjà énoncés, considérant le besoin de régulation et de modération pour garantir la liberté d’expression. Premièrement, il a souligné l’importance du rôle des fact-checkers. Il a alors dénoncé un discours, notamment porté par Marc Zuckerberg dans sa vidéo du 7 janvier 2025, qui viserait à les considérer comme des censeurs. Il a souligné le fait que les fact-checkers ne peuvent pas retirer un contenu, mais émettent des notices sur la base desquelles les modérateurs peuvent prendre des décisions.
Il a ensuite évoqué le cas de la campagne de désinformation lancée sur TikTok au moment des élections roumaines de décembre 2024, et qui s’est notamment appuyée sur l’instrumentalisation d’influenceurs. Vincent Berthier a affirmé que ces derniers devraient être soumis à un régime de responsabilité propre, notamment en raison des nombreuses contraintes auxquelles ils sont soumis en étant hébergés par une plateforme. En outre, selon un rapport de l’Unesco, moins de la moitié des influenceurs vérifient l’information qu’ils publient. Les influenceurs sont donc au cœur des questions de fiabilité et de qualité de l’information sur les réseaux sociaux. Enfin, Vincent Berthier a fini son intervention en mentionnant que l’utilisation de l’IA générative pose également des enjeux de parasitisme et de qualité de l’information.
L’échange s’est terminé par un dialogue avec l’auditoire, portant sur divers sujets, notamment concernant les liens entretenus entre les plateformes et d’autres acteurs. Ainsi, le public s’est intéressé aux éventuelles données concernant la collaboration de Google avec les partenaires de confiance, ou encore aux potentielles différences de traitements entre les États parties à l’Union européenne et ceux qui ne le sont pas et ne bénéficient pas des dispositions du DSA. En outre, Vincent Berthier a confirmé l’existence d’une coopération entre les médias et les plateformes, bien qu’ils ne disposent souvent pas du statut de partenaire ou signaleur de confiance. Finalement, la table ronde s’est conclue autour d’une dernière réflexion sur la régulation des contenus générés artificiellement sur les plateformes en ligne.