Ce que révèle le rapport parlementaire sur les effets psychologiques de TikTok sur les mineurs : analyse et perspectives
Face à des drames concrets, suicide, dépression ou encore automutilation, liés à l’exposition des jeunes à des contenus néfastes en ligne, le législateur national a créé une commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs. Elle a rendu public son rapport le 11 septembre 2025 (ci-après « Rapport »).
Ce document est le fruit d’un travail d’ampleur : 178 personnes auditionnées et 30 000 réponses à une consultation citoyenne. Le constat est sans appel : TikTok, qualifié de l’« un des pires réseaux sociaux » (Rapport, p. 37), exerce des « effets dévastateurs » sur la santé mentale des adolescents (Rapport, p. 81).
Si le contenu du rapport reprend des constats déjà établis par des études, il leur apporte un ancrage politique salutaire. Reposant quasiment exclusivement sur une accumulation de témoignages, le travail est principalement empirique et présente certaines limites : biais dans la sélection des personnes auditionnées, manque de données confortant certains témoignages, etc. Malgré ces limites, ce travail reste très riche et offre des perspectives intéressantes.
Divisé en deux tomes, le rapport principal se trouve dans le premier tome, lequel est composé de 324 pages et est accompagné de 43 recommandations. Le second tome est un compte-rendu des auditions menées. Une telle densité rend complexe une analyse exhaustive de l’ensemble de son contenu. Certaines propositions, comme l’interdiction des réseaux sociaux aux moins de 15 ans, peuvent d’ailleurs donner lieu à de fervents débats quant à leur efficacité, leur légalité et leur portée symbolique. Dès lors, l’angle d’analyse retenu ici repose sur l’un des constats formulés dans le rapport : la mise en œuvre opérationnelle du Règlement sur les services numériques (Digital Services Act, ci-après DSA) manque d’effectivité. Car le paradoxe soulevé dans le rapport est frappant : les règles existent, mais leur application demeure largement défaillante. Que faire alors ?
Un constat partagé : des règles bien pensées, mais mal appliquées
Pensé comme une réponse aux évolutions liées aux usages en ligne, le DSA vise à responsabiliser davantage les services intermédiaires en leur imposant des obligations graduées en fonction de leur taille et de leur impact sur la société. C’est dans ce cadre que le statut des très grands services a été créé (très grands moteurs de recherches, Very Large Online Search Engines en anglais, VLOSEs et très grandes plateformes en ligne, Very Large Online Platforms en anglais, VLOPs). TikTok a été désigné comme une VLOP dès la première salve de désignation. Dans ces conditions, la plateforme chinoise est soumise à des exigences accrues, notamment en matière d’évaluation des risques systémiques (art. 34 du DSA), d’audits indépendants (art. 37 du DSA) et d’accès aux données par les chercheurs (art. 40 du DSA).
Alors que le cadre juridique posé par le DSA apparaît pertinent et adapté, le constat dressé par la commission parlementaire sur son application est acerbe. Le rapport constate que les principes fondamentaux sont largement ignorés en pratique, comme l’accès au réseau aux moins de 15 ans (Rapport, p. 131) et les principes liés à la modération des contenus (Rapport, p. 148).
Les raisons d’un déficit de mise en œuvre
Comment expliquer un tel écart entre les règles et leur application ? Le rapport identifie plusieurs pistes.
D’abord, TikTok contrôle rarement le respect de ses propres règles (Rapport, p. 138). Un exemple frappant est le manque de rigueur dans le contrôle de l’âge des utilisateurs. Alors que TikTok prétend ne pas se limiter à la date de naissance déclarée par les utilisateurs et déployer des outils de détection d'âge (machine learning, outils biométriques), la commission d’enquête souligne que ces vérifications sont rares et restent facilement contournables. De plus, concernant les exigences de modération de contenus, des chiffres interpellent. Seuls 60 % des contenus signalés par Pharos sont effectivement supprimés (Rapport, p. 175), ce qui témoigne d’un suivi insuffisant ou d’un choix délibéré de laisser perdurer des contenus problématiques.
Plus largement, le traitement des signalements apparaît inefficace et aléatoire (Rapport, p. 175). Les délais sont importants, variant entre plusieurs heures à plusieurs jours pour des signalements pourtant effectués par des signaleurs de confiance (voir notre Lunch & Learn avec l’association e-Enfance). Le problème est aggravé par le volume colossal de contenus avec près de 296 millions de vidéos publiées chaque jour (Rapport, p. 166). Pourtant, TikTok prend rarement en compte les signalements d’utilisateurs « classiques », accentuant encore leur sentiment d’impuissance (Rapport, p. 175). Il s’agit ici d’une violation évidente du DSA, prospérant en l’absence de conséquence.
Ces défaillances ne s’expliquent pourtant pas par un manque de moyens financiers ou techniques. Au contraire, le rapport soutient qu’elles relèvent d’un « choix de stratégie commerciale » de TikTok (Rapport, p.169). La plateforme ne communique pas sur les moyens consacrés à la modération, en particulier pour les contenus francophones, et son intérêt économique semble de continuer à entretenir l’addiction des jeunes générations (Rapport, p 169).
Enfin, le rapport encourage une meilleure application du DSA et souligne que l’un des principaux leviers serait d’améliorer « la réactivité de la Commission européenne » (Rapport, p. 211). En effet, les procédures actuelles sont longues et complexes, notamment du fait de la répartition des compétences entre les autorités nationales et européennes. Les pressions politiques sur la Commission européenne ne sont peut-être pas à l’avancement indolent de ces enquêtes (voir notre article sur la galaxie trumpiste). Ce cadre procédural rigide contraste avec l’agilité des plateformes, capables de modifier leurs algorithmes plusieurs fois par jour (Rapport, p. 212). D’autre part, les dispositions du DSA, souvent formulées de manière générique, laissent une marge de manœuvre importante aux grands services pour interpréter leurs obligations et jouer avec les « zones grises » du droit (Rapport, p. 178). Cette opacité volontaire, combinée à la lenteur des mécanismes de contrôle, aboutit au constat suivant : malgré l’existence de règles ambitieuses, les autorités publiques restent dans l’incapacité de vérifier rapidement et efficacement la conformité des pratiques de TikTok.
L’exemple de l’algorithme de TikTok : une boite noire illustrant les limites de la transparence
Au cœur des préoccupations de la commission d’enquête parlementaire se trouve le système de recommandations de TikTok, véritable « boîte noire à la transparence » qui alimente la page Pour Toi (Rapport, p. 187). Cet algorithme est conçu notamment pour maximiser le temps passé sur l’application et repose sur des mécanismes addictifs. Il favorise ce que la commission qualifie de « spirales infernales » (Rapport, p. 182). Dès qu’un utilisateur interagit avec un contenu néfaste, l’application lui propose en continu des vidéos similaires, amplifiant ainsi les risques d’addiction, particulièrement chez les plus jeunes. Pourtant, les évaluations internes de l’entreprise ont tendance à minimiser l’impact de la plateforme sur la santé mentale et prétendent limiter ces risques avec des techniques de diversification des flux (Rapport, p. 183). Ces affirmations s’opposent aux témoignages d’utilisateurs et aux observations d’associations, telles qu’Amnesty International, qui confirment leur persistance (Rapport, p. 96) et l’insuffisance des mesures d’atténuation des risques (Rapport, p. 183). De plus, la commission parlementaire souligne l’opacité et la complexité du fonctionnement de l’algorithme de TikTok, généré selon des paramètres inconnus des utilisateurs (Rapport, p. 22)
Pourtant, le DSA entend précisément encadrer ces pratiques. Pour cela, il impose des obligations de transparence renforcées pour les VLOPs, notamment sur le fonctionnement des systèmes de recommandations (art. 27), sur l’évaluation et l’atténuation des risques (art. 34 et 35), l’ouverture des données aux chercheurs (art. 40), les obligations renforcées en matière de rapports de transparence (art. 42), et confie des pouvoirs d’enquête à la Commission européenne autorisant l’accès aux algorithmes et aux données (art. 69). Le rapport montre une nouvelle fois que TikTok ne respecte que très partiellement ces obligations. Les rapports de transparence restent hétérogènes et peu détaillés (Rapport, p. 190). De plus, les auditeurs indépendants ne sont pas placés en situation de pouvoir vérifier sérieusement la conformité des pratiques de la plateforme, faute de données fournies par le service (Rapport, p. 190).
L’opacité se retrouve même dans les interactions avec les tiers prévues par le DSA. Bien que les signaleurs de confiance voient leurs signalements mieux pris en compte que ceux des utilisateurs ordinaires, ils manquent de moyens et de soutien pour agir efficacement (Rapport, p. 216). Quant aux chercheurs, ils se heurtent à une « résistance constante de TikTok », comme l’illustre l’exemple du Pôle d'expertise de la régulation numérique (PEReN), contraint de multiplier ses demandes et confronté à des retards injustifiés (Rapport, p. 192). C’est notamment ce manque de transparence et d’accès aux données qui a conduit la Commission européenne à ouvrir, le 19 février 2024, une enquête à l'égard de TikTok. En définitive, cette opacité et cette réticence de l’entreprise entravent une évaluation indépendante par les tiers et l’action des autorités compétentes.
Pour conclure, ce rapport apporte un éclairage empirique et politique à une problématique majeure de notre décennie. Certes, il a ses limites, mais il permet tout de même de brosser un panorama alarmant quant à la mise en œuvre des règles juridiques applicables aux plateformes en ligne. Ses recommandations ne se limitent pas à des propositions juridiques mais encouragent aussi une prise de conscience sociétale avec des mesures éducatives, de prévention et de sensibilisation. En cela, le rapport démontre une certaine clairvoyance : le droit ne doit pas être le seul mécanisme pour protéger notre jeunesse.