Séminaire à Sciences Po : « Governing online speech: human rights law, security and the new lawmakers »

Séminaire à Sciences Po : « Governing online speech: human rights law, security and the new lawmakers »

Le 23 octobre, Stefania Di Stefano, chercheuse postdoctorale au sein de la Chaire sur la modération des contenus, est intervenue dans le cadre du cours Global Security Law and New Technologies de l’École de droit de Sciences Po. Son intervention portait sur la gouvernance du discours en ligne à la lumière du droit international des droits humains.  

Stefania Di Stefano a d’abord rappelé que les plateformes occupent désormais une place déterminante dans la structuration de l’espace public numérique. Par leurs règles, leurs algorithmes et leurs pratiques de modération, elles déterminent la visibilité des contenus, influençant ainsi la formation de l’opinion. Ce faisant, elles exercent un pouvoir que l’on pourrait qualifier de quasi-souverain. En d’autres termes, elles ont la capacité de restreindre les droits fondamentaux, notamment la liberté d’expression et d’information.   

Bien que ces enjeux soient considérables, ils ont longtemps été sous-estimés, tant par les plateformes que par les décideurs publics. Stefania Di Stefano explique que plusieurs facteurs ont contribué à cette invisibilisation. D’une part, les plateformes ont historiquement revendiqué une neutralité stratégique, leur permettant d’éviter de reconnaître leur rôle de régulateur du discours. D’autre part, les années 2010 ont été marquées par une vision très optimiste des technologies, où les réseaux sociaux étaient perçus comme des vecteurs naturels d’émancipation démocratique, illustrée notamment par les Printemps arabes.  

Cette combinaison de facteurs explique en partie pourquoi les plateformes en ligne ont pu négliger le cadre juridique international qui protège les droits humains. Le droit international des droits humains protège en effet la liberté d’expression, notamment via l’article 19 du Pacte international relatif aux droits civils et politiques et l’article 10 de la Convention européenne des droits de l’Homme, et encadre strictement les restrictions qui peuvent y être apportées. Ces principes sont également renforcés dans le contexte de la gouvernance des plateformes par les Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme, qui rappellent la responsabilité des entreprises de respecter les droits humains. Mais tant que les plateformes insistaient sur leur neutralité et leur rôle positif comme promoteurs de la liberté d’expression, ce cadre demeurait peu mobilisé pour réguler leurs pratiques.  

Cette dynamique a été profondément bouleversée par les scandales de 2016, au moment des élections états-uniennes et du Brexit. Ces crises ont révélé la dimension systémique de la désinformation, de la manipulation algorithmique et des formes de micro-ciblage politique, mettant au jour la capacité des plateformes à influencer les processus démocratiques. À partir de ce moment, leur pouvoir ne pouvait plus être ignoré, et la nécessité d’un encadrement juridique clair est devenue évidente. 

Dans ce contexte s’est ouvert, à partir de 2018, un mouvement de responsabilisation. Le Rapporteur spécial de l’ONU sur la liberté d’expression a joué un rôle central en rappelant que les plateformes doivent respecter les normes du droit international des droits humains. Le Rapporteur décrit les plateformes comme des “régulateurs énigmatiques”, ayant développé un “droit des plateformes” flou, incohérent et difficile à contester, et appelle à un alignement explicite avec le droit international. Dans cette perspective, une approche fondée sur les droits humains implique que toute restriction de la liberté d’expression soit encadrée par des critères stricts de légitimité, de nécessité et de proportionnalité, appliqués sur la base de règles claires, accessibles et cohérentes. 

L’émergence du Meta Oversight Board s’inscrit dans cette dynamique : en appliquant l’article 19 du Pacte international relatif aux droits civils et politiques, le Board traduit concrètement les standards internationaux des droits humains dans ses décisions de modération, montrant comment ces droits peuvent être adaptés aux défis posés par les nouvelles technologies (Di Stefano, 2024).Cette évolution illustre plus largement le rôle croissant des acteurs non-étatiques dans la création et l’interprétation de standards qui encadrent le discours en ligne, révélant l’émergence d’une gouvernance hybride du débat public numérique. 

Pourtant, Stefania Di Stefano souligne que cet élan initial semble aujourd’hui s’essouffler. Les engagements des plateformes en matière de protection des droits fondamentaux s’affaiblissent sous l’effet combiné de priorités commerciales et d’un contexte politique favorable à une moindre régulation. Le discours prononcé par Mark Zuckerberg en janvier 2025, marqué par un recul notable des engagements antérieurs pris par Meta (par exemple en matière de protection des minorités) en est un symbole frappant.  

Finalement, l’intervention de Stefania Di Stefano montre que, malgré des avancées, la conformité de la modération des plateformes aux standards internationaux reste fragile et incertaine, en raison des tensions entre enjeux économiques, pressions politiques et responsabilité sociale. La vigilance continue de ces pratiques demeure indispensable pour encadrer efficacement le débat public en ligne.