TikTok se retrouve sous le feu des projecteurs avec de nouvelles révélations sur son impact sur les jeunes utilisateurs.
Pour la première fois, les communications internes de TikTok ont été rendues publiques, montrant une entreprise indifférente aux dangers que l'application pose aux adolescents américains. Cela malgré ses propres recherches validant de nombreuses préoccupations en matière de sécurité des enfants.
Les documents confidentiels faisaient partie d'une enquête de plus de deux ans sur TikTok menée par 14 procureurs généraux, qui a conduit les responsables de l'État à poursuivre l'entreprise mardi. Le procès allègue que TikTok a été conçu dans le but exprès de rendre les jeunes accros à l'application. Les États soutiennent que la société multi-milliardaire a trompé le public sur les risques.
Dans chacune des poursuites distinctes déposées par les régulateurs de l'État, des dizaines de communications internes, de documents et de données de recherche ont été expurgés — masqués de la vue du public — car les autorités ont conclu des accords de confidentialité avec TikTok.
Mais dans l'un des procès, déposé par le bureau du procureur général du Kentucky, les expurgations étaient défectueuses. Cela a été révélé lorsque Kentucky Public Radio a copié-collé des extraits des documents expurgés, révélant une trentaine de pages de documents qui avaient été gardés secrets.
Après que Kentucky Public Radio a publié des extraits du matériel expurgé, un juge de l'État a scellé l'ensemble de la plainte à la suite d'une demande du bureau du procureur général "pour s'assurer que tout document de règlement et information connexe, information commerciale confidentielle et secret commercial, et autre information protégée n'était pas diffusé de manière inappropriée", selon une motion d'urgence pour sceller la plainte déposée mercredi par les responsables du Kentucky.
NPR a passé en revue toutes les parties du procès qui ont été expurgées, mettant en lumière les dirigeants de TikTok parlant franchement d'une série de dangers pour les enfants sur l'application vidéo extrêmement populaire. Le matériel, principalement des résumés d'études internes et de communications, montre que certaines mesures correctives — comme les outils de gestion du temps — auraient une réduction négligeable du temps d'écran. L'entreprise a néanmoins décidé de lancer et de vanter les fonctionnalités.
Par ailleurs, en vertu d'une nouvelle loi, TikTok a jusqu'en janvier pour se séparer de sa société mère chinoise, ByteDance, ou faire face à une interdiction nationale. TikTok lutte contre la répression imminente. Pendant ce temps, les nouveaux procès des autorités de l'État ont mis en lumière l'application et sa capacité à contrer le contenu qui nuit aux mineurs.
Dans une déclaration, le porte-parole de TikTok, Alex Haurek, a défendu le bilan de l'entreprise en matière de sécurité des enfants et a condamné la divulgation de matériel autrefois public qui est maintenant scellé.
"Il est extrêmement irresponsable de la part de NPR de publier des informations qui sont sous scellé judiciaire", a déclaré Haurek. "Malheureusement, cette plainte sélectionne des citations trompeuses et tire des documents obsolètes hors de leur contexte pour déformer notre engagement envers la sécurité de la communauté."
Il a poursuivi : "Nous avons des mesures de protection robustes, qui incluent la suppression proactive des utilisateurs suspectés d'être mineurs, et nous avons lancé volontairement des fonctionnalités de sécurité telles que des limites de temps d'écran par défaut, le jumelage familial, et la confidentialité par défaut pour les mineurs de moins de 16 ans."
Le procureur général du Kentucky : Les utilisateurs de TikTok peuvent devenir "accros" en 35 minutes
Comme les 170 millions d'utilisateurs américains de TikTok peuvent en témoigner, l'algorithme hyper-personnalisé de la plateforme peut être si engageant qu'il devient difficile de fermer l'application. TikTok a déterminé la quantité précise de visionnage nécessaire pour qu'une personne forme une habitude : 260 vidéos. Après cela, selon les enquêteurs de l'État, un utilisateur "est susceptible de devenir accro à la plateforme."
Dans la partie précédemment expurgée du procès, les autorités du Kentucky disent : "Bien que cela puisse sembler substantiel, les vidéos TikTok peuvent durer aussi peu que 8 secondes et sont jouées pour les spectateurs en succession rapide, automatiquement", ont écrit les enquêteurs. "Ainsi, en moins de 35 minutes, un utilisateur moyen est susceptible de devenir accro à la plateforme."
Un autre document interne a révélé que l'entreprise était consciente que ses nombreuses fonctionnalités conçues pour garder les jeunes sur l'application entraînaient un besoin constant et irrésistible de continuer à ouvrir l'application.
Les propres recherches de TikTok indiquent que "l'utilisation compulsive corrèle avec une série d'effets négatifs sur la santé mentale tels que la perte de compétences analytiques, la formation de la mémoire, la pensée contextuelle, la profondeur de la conversation, l'empathie, et une anxiété accrue", selon le procès.
De plus, les documents montrent que TikTok était conscient que "l'utilisation compulsive interfère également avec des responsabilités personnelles essentielles telles que le sommeil suffisant, les responsabilités professionnelles/scolaires, et la connexion avec les proches."
TikTok : L'outil de limite de temps vise à "améliorer la confiance du public", pas à limiter l'utilisation de l'application
Les documents non expurgés montrent que les employés de TikTok étaient conscients que trop de temps passé par les adolescents sur les réseaux sociaux pouvait être nuisible pour leur santé mentale. Le consensus parmi les universitaires est qu'ils recommandent une heure ou moins d'utilisation des réseaux sociaux par jour.
L'application permet aux parents de fixer des limites de temps sur l'utilisation de leurs enfants, allant de 40 minutes à deux heures par jour. TikTok a créé un outil qui fixe le prompt de temps par défaut à 60 minutes par jour.
Les documents internes montrent que TikTok a mesuré le succès de cet outil par la manière dont il "améliorait la confiance du public dans la plateforme TikTok via la couverture médiatique", plutôt que par la manière dont il réduisait le temps passé par les adolescents sur l'application.
Après des tests, TikTok a constaté que l'outil avait peu d'impact — représentant environ une baisse de 1,5 minute d'utilisation, les adolescents passant environ 108,5 minutes par jour avant à environ 107 minutes avec l'outil. Selon la plainte du procureur général, TikTok n'a pas réexaminé cette question.
Un document montre un chef de projet TikTok disant : "Notre objectif n'est pas de réduire le temps passé." Dans un message de chat reflétant ce sentiment, un autre employé a déclaré que l'objectif est de "contribuer aux utilisateurs actifs quotidiens [DAU] et à la rétention" des utilisateurs.
TikTok a mis en avant ses vidéos de "pause", qui sont des invites pour inciter les utilisateurs à arrêter de faire défiler sans fin et à faire une pause. En interne, cependant, il semble que l'entreprise ne pensait pas que les vidéos avaient beaucoup d'impact. Un dirigeant a déclaré qu'elles étaient "utiles dans un bon point de discussion" avec les décideurs, mais "elles ne sont pas tout à fait efficaces."
Document : TikTok a rétrogradé des personnes qu'il jugeait peu attrayantes dans son flux
Le litige multi-état contre TikTok a mis en lumière les filtres de beauté de l'entreprise, que les utilisateurs peuvent superposer sur les vidéos pour se rendre plus minces et plus jeunes ou pour avoir des lèvres plus pulpeuses et de plus grands yeux.
Une fonctionnalité populaire, connue sous le nom de filtre Bold Glamour, utilise l'intelligence artificielle pour remanier les visages des gens pour les faire ressembler à des mannequins aux pommettes hautes et à la mâchoire forte.
Les documents internes montrent que TikTok est conscient des dommages que les filtres de beauté, comme Bold Glamour, peuvent causer aux jeunes utilisateurs.
Les employés ont suggéré en interne que l'entreprise "fournisse aux utilisateurs des ressources éducatives sur les troubles de l'image" et crée une campagne "pour sensibiliser aux problèmes d'estime de soi (causés par l'utilisation excessive de filtres et d'autres problèmes)".
Ils ont également suggéré d'ajouter une bannière ou une vidéo aux filtres qui inclurait "une déclaration de sensibilisation sur les filtres et l'importance de l'image corporelle positive/la santé mentale."
Cela intervient alors que les documents dévoilent un autre aspect caché de l'algorithme de TikTok : l'application priorise les personnes belles.
Un rapport interne qui a analysé le flux vidéo principal de TikTok a vu "un volume élevé de... sujets peu attrayants" remplir l'application de tout le monde. En réponse, les enquêteurs du Kentucky ont découvert que TikTok a réajusté son algorithme pour amplifier les utilisateurs que l'entreprise considérait comme beaux.
"En changeant l'algorithme de TikTok pour montrer moins de 'sujets peu attrayants' dans le flux Pour Vous, [TikTok] a pris des mesures actives pour promouvoir une norme de beauté étroite même si cela pouvait avoir un impact négatif sur leurs jeunes utilisateurs", ont écrit les autorités du Kentucky.
Dirigeant de TikTok : l'algorithme pourrait priver les enfants d'opportunités comme "regarder quelqu'un dans les yeux"
Publiquement, TikTok a déclaré que l'un de ses "engagements les plus importants est de soutenir la sécurité et le bien-être des adolescents."
Pourtant, les documents internes brossent un tableau très différent, citant des déclarations de hauts dirigeants de l'entreprise qui semblent bien conscients des effets nocifs de l'application sans prendre de mesures significatives pour y remédier.
Un dirigeant anonyme de TikTok l'a exprimé en termes clairs, disant que la raison pour laquelle les enfants regardent TikTok est à cause de la puissance de l'algorithme de l'application, "mais je pense que nous devons être conscients de ce que cela pourrait signifier pour d'autres opportunités", a déclaré le dirigeant de l'entreprise. "Et quand je dis d'autres opportunités, je veux littéralement dire dormir, manger, se déplacer dans la pièce et regarder quelqu'un dans les yeux."
Estimation interne de TikTok : 95 % des utilisateurs de smartphones de moins de 17 ans utilisent TikTok
TikTok se considère comme étant dans une "course aux armements pour l'attention", selon une présentation interne de 2021.
Et les adolescents ont été la clé de la croissance précoce de l'application aux États-Unis, mais une autre présentation montrée aux hauts dirigeants de l'entreprise a révélé qu'un estimé de 95 % des utilisateurs de smartphones de moins de 17 ans utilisent TikTok au moins une fois par mois. Cela a conduit un membre du personnel de l'entreprise à déclarer qu'elle avait "atteint un plafond parmi les jeunes utilisateurs."
Les propres recherches de TikTok ont conclu que les enfants étaient les plus susceptibles d'être attirés dans le flux de vidéos infinies de l'application. "Comme prévu, à travers la plupart des indicateurs d'engagement, plus l'utilisateur est jeune, meilleures sont les performances", selon un document de TikTok de 2019.
En réponse à la préoccupation nationale croissante selon laquelle l'utilisation excessive des réseaux sociaux peut augmenter le risque de dépression, d'anxiété et de problèmes d'image corporelle chez les enfants, TikTok a introduit des outils de gestion du temps. Ceux-ci incluent des notifications informant les adolescents du temps qu'ils passent sur l'application, des fonctionnalités de supervision parentale et la possibilité de rendre l'application inaccessible pendant un certain temps.
Cependant, TikTok savait à quel point il était peu probable que ces outils soient efficaces, selon les documents obtenus par les enquêteurs du Kentucky.
"Les mineurs n'ont pas la fonction exécutive pour contrôler leur temps d'écran, tandis que les jeunes adultes le font", lit-on dans un document interne de TikTok.
TikTok pousse les utilisateurs dans des bulles de filtrage comme 'painhub' et 'sadnotes'
TikTok est bien conscient des "bulles de filtrage". Les documents internes montrent que l'entreprise les a définies comme lorsqu'un utilisateur "ne rencontre que des informations et des opinions qui se conforment et renforcent ses propres croyances, causées par des algorithmes qui personnalisent l'expérience en ligne d'un individu."
L'entreprise connaît les dangers des bulles de filtrage. Lors d'une présentation interne sur la sécurité en 2020, les employés ont averti que l'application "peut servir rapidement du contenu potentiellement nuisible." TikTok a mené des expériences internes avec des comptes de test pour voir à quelle vitesse ils descendent dans des bulles de filtrage négatives.
"Après avoir suivi plusieurs comptes 'painhub' et 'sadnotes', il m'a fallu 20 minutes pour tomber dans une bulle de filtrage 'négative'", a écrit un employé. "La densité intensive de contenu négatif me fait baisser l'humeur et augmente mes sentiments de tristesse bien que je sois d'humeur élevée dans ma vie récente."
Un autre employé a déclaré : "il y a beaucoup de vidéos mentionnant le suicide", y compris une demandant, "Si vous pouviez vous suicider sans blesser personne, le feriez-vous ?"
Dans un autre document, la recherche de TikTok a révélé que le contenu promouvant les troubles alimentaires, souvent appelé "thinspiration", est associé à des problèmes tels que l'insatisfaction corporelle, les troubles alimentaires, la faible estime de soi et la dépression.
Malgré ces avertissements, l'algorithme de TikTok continue de placer les utilisateurs dans des bulles de filtrage. Un document interne stipule que les utilisateurs sont "placés dans des 'bulles de filtrage' après 30 minutes d'utilisation en une seule fois." L'entreprise a écrit que d'avoir plus de modérateurs humains pour étiqueter le contenu est possible, mais "nécessite de grands efforts humains."
La modération de contenu de TikTok manque de contenu sur l'automutilation et les troubles alimentaires
TikTok a plusieurs couches de modération de contenu pour éliminer les vidéos qui violent ses Directives Communautaires. Les documents internes montrent que le premier ensemble d'yeux n'est pas toujours une personne de l'équipe Confiance et Sécurité de l'entreprise.
La première étape utilise généralement l'intelligence artificielle pour signaler le contenu pornographique, violent ou politique. Les étapes suivantes utilisent des modérateurs humains, mais uniquement si la vidéo a un certain nombre de vues, selon les documents. Ces étapes supplémentaires ne prennent souvent pas en compte certains types de contenu ou des règles spécifiques à l'âge.
Selon les propres études de TikTok, le dépôt non expurgé montre que certains contenus sur le suicide et l'automutilation ont échappé à ces premières étapes de modération humaine. L'étude pointe des vidéos d'automutilation qui ont eu plus de 75 000 vues avant que TikTok ne les identifie et les supprime.
TikTok a également des politiques éparses sur le contenu qui inclut les troubles alimentaires, la consommation de drogues, la conduite dangereuse, le gore et la violence. Bien que les Directives Communautaires de TikTok interdisent la plupart de ces contenus, les documents de politique interne disent que l'entreprise "autorise" le contenu. Souvent, le contenu est trouvable sur TikTok et n'est simplement pas "recommandé", ce qui signifie qu'il n'apparaît pas dans les flux Pour Vous des utilisateurs ou a pris une priorité inférieure dans l'algorithme.
L'entreprise a des points de discussion autour de son travail de modération de contenu. Un exemple souligné dans les documents détaille un enfant envoyé aux urgences après avoir tenté un défi dangereux de TikTok. Lorsqu'elle traite les retombées négatives de la presse, TikTok a dit aux employés d'utiliser une liste interne de points de discussion qui disait : "Conformément à nos Directives Communautaires, nous n'autorisons pas le contenu qui dépeint, promeut, normalise ou glorifie [un comportement dangereux], y compris les défis dangereux."
TikTok reconnaît en interne qu'il a des taux de "fuite" substantiels de contenu violant qui n'est pas supprimé. Ces taux de fuite incluent : 35,71 % de "Normalisation de la pédophilie"; 33,33 % de "Sollicitation sexuelle de mineurs"; 39,13 % de "Abus physique de mineurs"; 30,36 % de "mener des mineurs hors de la plateforme"; 50 % de "Glorification de l'agression sexuelle de mineurs"; et "100 % de "Fétichisation de mineurs."
TikTok lent à supprimer les utilisateurs de moins de 13 ans, malgré la politique de l'entreprise
Les enfants de moins de 13 ans ne peuvent pas ouvrir un compte TikTok standard, mais il existe un service "TikTok pour les jeunes utilisateurs" que l'entreprise dit inclure des garde-fous stricts en matière de contenu.
C'est un groupe d'utilisateurs vulnérable, car la loi fédérale dicte que les sites de médias sociaux comme TikTok ne peuvent pas collecter de données sur les enfants de moins de 13 ans à moins que les parents ne soient informés des informations personnelles collectées. Et même alors, les applications de médias sociaux doivent d'abord obtenir le consentement vérifiable d'un parent.
En août, le ministère de la Justice a poursuivi TikTok pour avoir violé la loi fédérale protégeant les données des enfants de moins de 13 ans, alléguant que l'application "a sciemment et à plusieurs reprises violé la vie privée des enfants."
Dans les documents internes, cependant, les responsables de l'entreprise ont demandé aux modérateurs de TikTok de faire preuve de prudence avant de supprimer les comptes d'utilisateurs soupçonnés d'être âgés de moins de 13 ans.
Un document interne sur les "jeunes utilisateurs/U13" dit que TikTok demande à ses modérateurs de ne pas prendre de mesures sur les rapports d'utilisateurs mineurs à moins que leur compte ne les identifie comme ayant moins de 13
🔍 TikTok et l'impact sur la jeunesse
TikTok se retrouve sous le feu des projecteurs avec de nouvelles révélations sur son impact sur les jeunes utilisateurs. Voici les points clés à retenir :
- Addiction rapide : En seulement 35 minutes, vous ou vos enfants pourriez devenir accro à TikTok, avec un visionnage de 260 vidéos suffisant pour créer cette habitude.
- Outils de limite de temps : Conçus pour "améliorer la confiance du public", ces outils n'ont réduit le temps d'écran que d'1,5 minute en moyenne, soit de 108,5 à 107 minutes par jour.
- Filtres de beauté et standards irréalistes : TikTok priorise les utilisateurs "belles" dans les flux, renforçant des normes de beauté étroites et potentiellement nuisibles.
- Risque pour la santé mentale : L'utilisation compulsive de TikTok est liée à des effets négatifs comme l'anxiété et la baisse des compétences sociales, selon les études internes.
- Bulles de filtrage dangereuses : En 30 minutes, vous pouvez être enfermé dans des bulles de contenu négatif, affectant l'humeur et augmentant les risques de troubles alimentaires.
- Modération de contenu insuffisante : Des contenus violents ou dangereux atteignent des milliers de vues avant d'être supprimés, révélant des failles dans la modération.
Ces révélations soulèvent des questions importantes sur la responsabilité de TikTok envers ses utilisateurs, en particulier les plus jeunes. Assurez-vous de surveiller l'utilisation des réseaux sociaux par vos enfants et d'encourager des habitudes numériques saines.
#TikTok #SécuritéDesEnfants #SantéMentale #RéseauxSociaux
Partager cet article :
Qui a travaillé sur ce projet ?
Nous sommes des compagnons de route
Nomades, nous développons des compétences techniques et stratégiques complémentaires, au service de nos clients et partenaires. Indépendants, nous nous agrégeons selon la nature et la temporalité des projets que nous initions et auxquels nous contribuons. Nous partageons des valeurs d’honnêteté intellectuelle, de transparence et de confiance mutuelle.
last update :