Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

TikTok et les jeunes : rentabilité et fabrique du mal-être

Un article repris de https://theconversation.com/tiktok-...

La commission d’enquête parlementaire, qui a rendu ses conclusions le 11&nbsp ;septembre 2025, souligne l’opacité des algorithmes de TikTok. Les contenus les plus radicaux ou perturbants semblent particulièrement valorisés pour capter l’attention. Daniel Constante/Shutterstock

Tutoriels de suicide, hashtags valorisant l’anorexie, vidéos de scarification… Le rapport parlementaire, publié le 11 septembre 2025, dresse un constat glaçant des effets psychologiques de TikTok sur les mineurs. L’application, loin d’être un simple divertissement, apparaît comme une véritable « fabrique du mal-être », structurée par une architecture algorithmique qui capte et qui exploite l’attention des adolescents pour maximiser sa rentabilité.


Si les députés proposent d’interdire l’accès aux réseaux sociaux avant 15 ans, l’enjeu va bien au-delà de la seule régulation juridique. Ce que révèle le rapport de la commission parlementaire d’enquête sur les effets psychologiques de TikTok sur les mineurs, publié le 11 septembre 2025, c’est l’émergence de nouvelles fragilités liées aux environnements numériques. Ce mélange de design addictif, de spirales algorithmiques et de logiques économiques tend à fragiliser les jeunes usagers.

Dès lors, la question centrale ne porte pas seulement sur l’âge d’accès aux plateformes, mais sur notre capacité collective à construire une régulation adaptée, capable de protéger les mineurs sans les exclure du monde numérique.

Comment protéger efficacement les mineurs face à la puissance des algorithmes sans les priver d’un espace numérique devenu incontournable dans leur socialisation et leur développement ?

La fabrique algorithmique de la vulnérabilité

Le rapport parlementaire décrit TikTok comme une « machine algorithmique » conçue pour capter l’attention des utilisateurs et pour les enfermer dans des spirales de contenus extrêmes. L’architecture du fil repose sur l’idée simple que plus un contenu retient le regard longtemps, plus il sera recommandé à d’autres utilisateurs. Ce mécanisme transforme la durée d’attention en indicateur de rentabilité, au détriment de la qualité ou de l’innocuité des contenus.

En quelques minutes, un adolescent peut passer d’une vidéo anodine à des tutoriels de scarification, des incitations à l’anorexie (#SkinnyTok) ou au suicide. Amnesty International a montré que, dès les douze premières minutes, plus de la moitié des contenus recommandés à un « profil dépressif » concernaient l’anxiété, l’automutilation ou le suicide. L’algorithme ne reflète donc pas seulement les préférences. Il construit également un environnement qui accentue les vulnérabilités psychiques.

Dans une perspective des sciences de l’information et de la communication (SIC), discipline qui étudie la manière dont les technologies et les dispositifs médiatiques structurent nos pratiques sociales et nos représentations, ce processus illustre une « fabrique de vulnérabilités communicationnelles ». Autrement dit, l’architecture technique de TikTok ne se contente pas de diffuser des contenus, elle façonne les conditions mêmes de réception et d’usage.

Il s’agit d’un design pensé pour exploiter l’économie de l’attention, reposant sur la gratification immédiate et la logique de la récompense aléatoire. Comme le souligne Ulrich Beck dans sa théorie de la « société du risque », les technologies produisent elles-mêmes les dangers qu’elles prétendent encadrer. TikTok illustre ce paradoxe avec un espace de divertissement qui se transforme en espace de mise en danger systémique.

En ce sens, la toxicité décrite dans le rapport n’est pas une dérive accidentelle, mais une conséquence structurelle du modèle économique de la plateforme. L’algorithme, optimisé pour maximiser le temps passé en ligne, tend mécaniquement à privilégier les contenus les plus radicaux ou perturbants, car ce sont ceux qui retiennent le plus l’attention.

L’opacité algorithmique comme enjeu central

L’un des constats majeurs de la commission d’enquête concerne l’opacité des algorithmes de TikTok. Malgré plus de sept heures d’audition des représentants de la plateforme, les députés soulignent le caractère insaisissable de son fonctionnement : absence d’accès aux données brutes, impossibilité de vérifier les critères de recommandation, communication limitée à des éléments généraux et souvent contradictoires. Autrement dit, le cœur technique de l’application algorithmique reste une boîte noire dont l’intelligibilité est encore questionnée.

Cette opacité n’est pas un simple détail technique puisqu’elle conditionne directement la capacité à protéger les mineurs. Si l’on ne sait pas précisément quels signaux (durée de visionnage, likes, pauses, interactions) déclenchent la recommandation d’un contenu, il devient impossible de comprendre pourquoi un adolescent vulnérable est exposé en priorité à des vidéos sur l’anorexie, sur le suicide ou sur l’automutilation. Le rapport qualifie ce manque de transparence d’« obstacle majeur à la régulation ».

Cette situation illustre la notion de gouvernance algorithmique. Il s’agit des dispositifs qui, tout en organisant nos environnements informationnels, échappent largement à l’intelligibilité publique. Cette asymétrie entre la puissance des plateformes et la faiblesse des institutions de contrôle génère ce que l’on peut qualifier de vulnérabilité communicationnelle systémique.

Le rapport insiste ainsi sur la nécessité d’outils européens d’audit des algorithmes, mais aussi sur l’importance d’une coopération renforcée entre chercheurs, autorités de régulation et acteurs de la société civile. L’enjeu n’est pas seulement de contraindre TikTok à être plus transparent, mais de créer les conditions d’une intelligibilité collective de ces dispositifs techniques. C’est à ce prix que la protection des mineurs pourra devenir effective et que l’Europe pourra affirmer une souveraineté numérique crédible.

L’économie du mal-être

Le rapport parlementaire souligne également que la toxicité de TikTok n’est pas accidentelle ni le fruit d’une intention malveillante, mais qu’elle découle de son modèle économique, d’une logique marchande où le mal-être est rentable.

Ce mécanisme illustre ce que les chercheurs appellent l’« économie de l’attention ». Sur TikTok, le temps de visionnage devient la ressource centrale. Plus un adolescent reste connecté, plus ses données alimentent le ciblage publicitaire et la valorisation financière de la plateforme. Or les émotions négatives (peur, sidération, fascination morbide) génèrent souvent une rétention plus forte que les contenus positifs. Les spirales algorithmiques ne sont donc pas de simples accidents, mais la conséquence directe d’une optimisation économique.

Cette dynamique s’inscrit dans un capitalisme de surveillance, où l’expérience intime des individus est extraite, analysée et transformée en valeur marchande. Dans le cas de TikTok, les comportements vulnérables des mineurs (hésitations, clics répétés, visionnages prolongés de contenus sensibles) deviennent autant de données monétisables.

Ainsi, il ne s’agit pas seulement de protéger les jeunes contre des contenus toxiques, mais de comprendre que la plateforme a intérêt à maintenir ces contenus en circulation. Le problème est donc structurel. TikTok n’est pas seulement un réseau social qui dérape, c’est aussi une industrie qui prospère sur la captation du mal-être.

Au-delà de TikTok

En définitive, le rapport sur TikTok agit comme un miroir grossissant des mutations de nos environnements numériques. Il ne s’agit pas seulement de pointer les dangers d’une application. Il s’agit également de questionner les logiques économiques et algorithmiques qui façonnent désormais la socialisation des plus jeunes.

L’enjeu n’est pas de bannir un réseau social, mais plutôt de concevoir une régulation capable d’intégrer la complexité des usages, la diversité des publics et les impératifs de protection. La notion de sécurité communicationnelle fournit ici une clé de lecture en ce sens qu’elle invite à penser ensemble santé psychique, gouvernance algorithmique, souveraineté numérique et innovation responsable.

TikTok n’est donc pas une exception, mais le symptôme d’un modèle qu’il devient urgent de réformer. L’avenir de la régulation ne se jouera pas uniquement sur cette plateforme. Elle se jouera aussi dans la capacité des sociétés européennes à redéfinir les règles du numérique à la hauteur des enjeux générationnels qu’il engage.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Licence : Pas de licence spécifique (droits par défaut)

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.