La commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a permis de poser un constat partagé. Derrière l’apparent fonctionnement d’une application de divertissement se dissimule une mécanique redoutable : un algorithme puissant conçu pour provoquer l’addiction et qui peut, parfois, entraîner de graves conséquences pour les utilisateurs.
Au fil des témoignages des 178 personnes auditionnées à Paris et à Bruxelles, des dizaines d’heures de témoignages de parents, d’experts, de médecins, de chercheurs et bien sûr des représentants des plateformes, un avis s’est donc imposé : TikTok met délibérément en danger la santé psychologique des mineurs mais aussi des majeurs dans une pure logique marchande, ce que j’ai pu appeler « le business du sordide ». L’algorithme de la plateforme, opaque, observe chaque seconde de visionnage, pour proposer à l’utilisateur un flot ininterrompu de vidéos personnalisées. Ce fil « Pour toi », qui remplace toute chronologie de l’information et tout choix conscient, conduit à une spirale de contenus homogènes, souvent anxiogènes. Amnesty International a démontré qu’en moins de 12 minutes un adolescent pouvait être exposé majoritairement à des vidéos sur la dépression, l’automutilation ou le suicide.
Cette architecture, fondée sur le défilement infini, provoque des perturbations comportementales : perte de sommeil, troubles alimentaires, désocialisation.
Elle alimente une économie de l’attention dont la rentabilité repose ainsi sur la détresse des plus vulnérables. La plateforme n’est pas seulement addictive, elle devient aussi, parce que la radicalité retient plus l’attention et enferme alors dans des spirales de contenus violents, le vecteur d’idéologies et d’exposition à des contenus haineux. Les contenus sexistes, masculinistes ou incitant à la maigreur extrême y prospèrent dans un espace qui, pourtant, devrait être modéré, conformément au règlement européen sur les services numériques.
La modération, justement, y est largement insuffisante et ce, volontairement. La baisse des effectifs de modérateurs humains ainsi que leurs conditions de travail très difficiles dans des centres de sous-traitance partout dans le monde démontrent une fois encore que la plateforme ne met pas tout en œuvre pour assainir ses contenus. Nous avons nous-même fait le test à l’aide de plusieurs comptes mineurs. Les signalements de vidéos incitant à la mutilation étaient systématiquement rejetés.
Nos travaux ont également révélé l’engrenage dans lequel se trouvent les influenceurs actifs sur la plateforme : ils doivent produire du contenu « drama » afin d’augmenter leurs chances de faire des vues. Ce sont aussi les dérives économiques du réseau avec une marchandisation croissante. Depuis le lancement de TikTok Shop, le passage y est obligatoire sur la plateforme pour un utilisateur qui souhaite passer du fil « Pour toi » aux contenus suivis. Les influenceurs sont incités par un système d’agents sous-traitants et des rémunérations importantes à se mettre en scène dans des diffusions en direct où ils peuvent recevoir de l’argent sous forme de cadeaux virtuels, transformant la plateforme en casino numérique (design lumineux, musique très forte, appui frénétique sur l’écran pour donner…). Ces pratiques, sur lesquelles TikTok prélève une commission de 50 %, encouragent une forme de mendicité numérique et de racket des utilisateurs attirés à donner pour voir leur nom proclamé par l’influenceur pour le remercier.
Pourtant, pendant plus de sept heures, les dirigeants de TikTok, se sont défaussé de toute responsabilité et ont refusé d’admettre l’ensemble des difficultés énoncées ci-dessus.
Pour autant, il serait réducteur de ne voir dans TikTok ou plus largement dans les réseaux sociaux qu’un espace de perdition. Des usages positifs existent : la découverte, la diffusion de savoirs, l’accès à un espace démocratique. Mais ces aspects ne sauraient dissimuler la nocivité d’un modèle fondé sur la captation du temps et des données personnelles, avec de véritables questionnements de souveraineté que la commission d’enquête sénatoriale sur TikTok avait bien mis en avant. L’enjeu n’est pas forcément d’interdire, mais de redonner à cet espace numérique une forme d’équilibre, de le rendre compatible avec la protection des utilisateurs et de leur santé mentale. À cet égard, le rapport de notre commission permet de mettre à l’agenda un constat unanime sur l’urgence à réguler les réseaux sociaux. Je partage l’immense majorité des conclusions de la rapporteure, tout en ayant certaines nuances. Je ne crois pas à l’efficacité d’une interdiction des réseaux sociaux avant quinze ans, ni aux sanctions de leurs parents. Ces mesures, difficilement applicables, feraient reposer sur les jeunes la responsabilité de dérives qui incombent d’abord aux plateformes.
J’ai formulé, en complément, plusieurs recommandations visant à mieux protéger les mineurs et à responsabiliser les plateformes.
Il s’agirait ainsi de supprimer le fil personnalisé « Pour toi » pour les comptes de mineurs et d’interdire le défilement infini, tout en adaptant le design des applications pour qu’il ne soit plus addictif. Les diffusions en direct monétisées devraient être interdites aux moins de dix-huit ans. L’âge des utilisateurs devrait être vérifié grâce à un système européen sécurisé. Les plateformes seraient également tenues de financer une modération humaine en y consacrant une part de leur chiffre d’affaires. Enfin, une taxe pollueur-payeur permettrait d’alimenter un fonds public destiné aux signaleurs de confiance.
La fermeture des plateformes récalcitrantes doit être envisagée en dernier recours.
La France et l’Union européenne doivent imposer aux plateformes dont le marché est colossal (plus de 200 millions d’utilisateurs juste pour TikTok) de garantir la sécurité de leurs utilisateurs. Il y a urgence tant les risques pour les États, à l’échelle des individus et des organisations démocratiques, sont immenses.
Arthur Delaporte
Député
Président de la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs
Photo : Mehaniq/Shutterstock.com













