Une étude interne de Meta révèle que les adolescents se sentant mal dans leur corps après avoir utilisé Instagram sont beaucoup plus exposés à des contenus liés aux troubles alimentaires et à l’image corporelle négative. Ces résultats ravivent les inquiétudes quant à l’impact du réseau social sur la santé mentale des jeunes.
Selon le document, les publications concernées mettaient en avant certaines parties du corps — notamment la poitrine, les fesses ou les cuisses — et véhiculaient des jugements explicites sur les morphologies, voire du contenu évoquant directement les troubles alimentaires. Si ce type de publications n’est pas formellement interdit par la plateforme, parents, adolescents et experts alertent depuis plusieurs années sur ses effets délétères.
L’étude, menée en 2023-2024 auprès de 1 149 adolescents, a évalué la fréquence à laquelle ces jeunes ressentaient un malaise corporel après l’utilisation d’Instagram. Les chercheurs ont ensuite analysé manuellement le contenu visionné sur une période de trois mois. Résultat : parmi les 223 adolescents les plus touchés, les contenus liés aux troubles alimentaires représentaient 10,5 % de leur fil d’actualité, contre 3,3 % pour les autres utilisateurs.
Les auteurs précisent toutefois que ces données ne prouvent pas une causalité directe entre le visionnage de ces publications et l’insatisfaction corporelle. Ils soulignent qu’il est possible que les adolescents les plus vulnérables recherchent eux-mêmes ce type de contenu, renforçant ainsi le cercle vicieux de l’exposition et du mal-être.
Par ailleurs, l’étude indique que ces jeunes utilisateurs étaient également confrontés à davantage de contenus provocateurs ou matures, abordant des thèmes de comportements à risque, de souffrance ou de cruauté, représentant 27 % de leur flux contre 13,6 % pour leurs pairs.
Dans un communiqué, Meta affirme rester « pleinement engagée » dans la sécurisation de ses plateformes et dans la compréhension de l’expérience adolescente. L’entreprise met en avant ses efforts pour restreindre le contenu sensible destiné aux mineurs et garantir un environnement conforme à des standards PG-13.
Cependant, les chercheurs de Meta reconnaissent que 98,5 % du contenu sensible échappe encore à la détection automatique, soulignant les limites des systèmes de modération actuels.
Le rapport cite enfin plusieurs exemples de contenu jugé préoccupant : photos suggestives, vidéos violentes ou dessins à tonalité anxiogène. Des éléments jugés suffisamment alarmants pour que les chercheurs recommandent des avertissements internes et un renforcement urgent des mesures de protection pour les jeunes utilisateurs.
Youssef M. est journaliste web, passionné par le bien-être, le design, la culture et les tendances digitales, il signe des articles authentiques et inspirants qui allient créativité, expertise et curiosité du monde moderne.


