L'enquête Instagram trouve que le contenu sexuel est servi aux adolescents

À la fin de 2024, Meta a introduit les comptes Instagram Teen, un filet de sécurité destiné à protéger les jeunes esprits du contenu sensible et à s'assurer qu'ils ont des interactions en ligne sûres, renforcés par la technologie de détection d'âge. Les comptes pour les adolescents sont automatiquement classés comme des mots privés, les mots offensants sont cachés et les messages des étrangers sont bloqués.

Selon une enquête menée par des organisations à but non lucratif axées sur les jeunes, la concevoir pour nous et la technologie responsable, les garde-corps des adolescents d'Instagram ne tiennent pas leur promesse. Sur une période de deux semaines, cinq comptes de test appartenant aux adolescents ont été testés, et tous ont reçu du contenu sexuel malgré les promesses de Meta.

Un barrage de contenu sexualisé

Tous les comptes de test ont été servis un contenu inapte malgré l'activation du filtre de contenu sensible dans l'application. «4 comptes sur 5 de nos adolescents ont été recommandés par algorithme et un contenu alimentaire désordonné», explique le rapport.

En outre, 80% des participants ont déclaré avoir subi une détresse tout en utilisant des comptes d'adolescents Instagram. Fait intéressant, un seul des cinq comptes de test était de montrer des images et des vidéos éducatives.

« (Environ) 80% du contenu de mon flux était lié à des relations ou à des blagues sexuelles brutes. Ce contenu est généralement resté à l'écart d'être absolument explicite ou montrant des images directement graphiques, mais a également laissé très peu l'imagination », a déclaré l'un des testeurs.

Selon le rapport de 26 pages, 55% du contenu marqué représentaient des actes sexuels, des comportements sexuels et des images sexuelles. De telles vidéos avaient accumulé des centaines et des milliers de likes, l'une d'entre elles ratissant plus de 3,3 millions de likes.

Avec des millions d'adolescents utilisant Instagram et étant automatiquement placés dans des comptes d'adolescents Instagram, nous voulions voir si ces comptes créent réellement une expérience en ligne plus sûre. Découvrez ce que nous avons trouvé. pic.twitter.com/72xjg0hhcm

– Concevez-le pour nous (@designitforus) 18 mai 2025

L'algorithme d'Instagram a également poussé un contenu qui favorisait des concepts nocifs tels que les types de corps «idéaux», la honte corporelle et les habitudes alimentaires. Un autre thème inquiétant était des vidéos qui favorisaient la consommation d'alcool et les vidéos qui ont poussé les utilisateurs à utiliser des stéroïdes et des suppléments pour obtenir un certain type de corps masculin.

Un ensemble entier de mauvais médias

Malgré les allégations de Meta de filtrer le contenu problématique, en particulier pour les utilisateurs des adolescents, les comptes de test ont également été présentés au contenu raciste, homophobe et misogyne. Encore une fois, ces clips ont collectivement reçu des millions de likes. Des vidéos montrant la violence armée et la violence domestique ont également été poussées aux comptes des adolescents.

«Certains de nos comptes d'adolescents tests n'ont pas reçu de protections par défaut de META.

Ce ne sera pas la première fois que Instagram (et les autres plateformes de médias sociaux de META, en général), se trouvent en servant du contenu problématique. En 2021, les fuites ont révélé comment Meta connaissait l'impact nocif d'Instagram, en particulier sur les jeunes filles aux prises avec des problèmes de santé mentale et d'image corporelle.

Dans un communiqué partagé avec le Washington Post, Meta a affirmé que les conclusions du rapport étaient défectueuses et minimisé la sensibilité du contenu signalé. Il y a un peu plus d'un mois, la société a également élargi ses protections pour adolescents à Facebook et Messenger.

« Un rapport manufacturé ne change pas le fait que des dizaines de millions d'adolescents ont désormais une expérience plus sûre grâce aux comptes d'adolescents Instagram », a déclaré un porte-parole de Meta. Ils ont toutefois ajouté que l'entreprise examinait les recommandations problématiques de contenu.







Thomas

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut