Slide avec le titre et une femme donnant un présentation

Réponse de la Chaire à la consultation sur l’avant-projet de loi suisse LPCom

En réponse à la consultation lancée sur l’avant-projet de loi suisse sur les plateformes de communication et les moteurs de recherche (LPCom), la Chaire sur la modération des contenus a soumis une série d’observations.

Ce projet de loi, directement inspiré des mesures emblématiques du règlement sur les services numérique (Digital Services Act, DSA), vise à responsabiliser les géants du numérique et à renforcer les droits de leurs utilisateurs suisses. Forte de son expertise de recherche théorique et pratique, la Chaire a soumis des recommandations sur l’avant-projet au prisme de deux années d’application du DSA.

Retours sur quelques points saillants de la contribution envoyée à l’OFCOM (Office fédéral de la communication).

Premièrement, le champ d’application de la LPCom apparaît trop restreint. En imposant un seuil d’assujettissement fixé à 10% de la population suisse, l’avant-projet risque d’engendrer un effet de seuil. En pratique, des contenus illicites pourraient donc perdurer sur des plateformes moins populaires que celles visées par la loi.

Dans la continuité de ce champ d’application restreint, la loi impose une liste d’infractions trop rigide. La procédure de signalement établie par l’avant-projet se limite à une liste restreinte d’infractions, sans pour autant faire écho à la variété des contenus illicites circulant sur les très grands services. Il est possible d’anticiper qu’une telle liste constituera un frein pour les utilisateurs, qui ne savent pas toujours qualifier juridiquement l’illicéité d’un contenu. Conformément à la lettre adressée aux parties prenantes, la Chaire recommande donc d’opter pour une définition plus large et ouverte des contenus pouvant être notifiés.

Ensuite, le principe d’atténuation des risques systémiques est malheureusement absent. Alors même que l’article 20 de l’avant-projet impose aux très grands services l’obligation d’évaluer les risques systémiques, son pendant, l’obligation de les atténuer, brille par son absence. En effet, de manière surprenante, les très grands services peuvent recenser des risques sans pour autant être obligés d’agir contre ces risques. Ce faisant, l’obligation s’apparente à un tigre de papier risquant de ne pas avoir l’impact escompté sur les pratiques des services en ligne.

La loi pourrait reconnaître les « signaleurs de confiance ». Le texte impose aux plateformes la mise en oeuvre d’un système de notification (signalement). Cette obligation se limite aux signalements individuels, dont l’efficacité présente des lacunes. Par exemple, au sein de l’Union européenne, seuls 44% des contenus illégaux sont retirés après un signalement individuel (HateAid, Rights without reach. The DSA put to the test, 2025). À l’inverse, les signalements effectués par les signaleurs de confiance entraînent des retraits expéditifs, grâce à une relation privilégiée avec les services. Dans cette lignée, la Chaire prône donc la création d’un statut de « signaleur de confiance ». En évitant de reproduire l’ écueil du DSA, la Chaire insiste sur la nécessité d’accompagner ce statut d’un financement dédié, prélevé sur la taxe de surveillance payée par les très grands services (prévue à l’article 31).

Loin d’être exhaustive, cette contribution s’est attachée à tirer certains enseignements clés de deux années d’application du DSA.

Document de contribution de la chaire