Según los registros del tribunal federal en California (EE. UU.), una encuesta de usuarios de Meta muestra que el 19% de los adolescentes de 13 a 15 años que usan Instagram admiten haber visto imágenes de desnudos o contenido pornográfico que no quieren ver en esta plataforma.
El documento se publicó como parte de una demanda contra Meta, que incluye un extracto de la declaración de marzo de 2025 de Adam Mosseri, jefe de Instagram.
En consecuencia, los datos provienen de la encuesta de usuarios de 2021 para evaluar la experiencia real en la plataforma, no de la revisión directa del contenido publicado.
No solo el tema del contenido sensible, el testimonio también muestra que alrededor del 8% de los usuarios en el grupo de edad de 13 a 15 años dijeron que habían visto publicaciones relacionadas con autolesión o amenazas de autolesión en Instagram en la misma encuesta.
Otro documento interno también fue publicado en la demanda, que muestra que un investigador de Meta recomendó una vez que la empresa se centrara fuertemente en el grupo de usuarios adolescentes porque son considerados "catalizadores" en la familia, lo que afecta el uso de la aplicación por parte de los padres y los niños pequeños.
El memorándum de fecha 20 de enero de 2021 enfatiza que atraer y retener nuevos usuarios depende significativamente de la influencia de este grupo de edad.
Actualmente, Meta se enfrenta a muchas críticas de los responsables políticos y reguladores de todo el mundo sobre el impacto de las redes sociales en la salud mental de los jóvenes.
En Estados Unidos, miles de demandas a nivel federal y estatal acusan a la empresa de diseñar productos adictivos, contribuyendo a agravar la crisis psicológica en los adolescentes.
Andy Stone, portavoz de Meta, dijo que los datos sobre el contacto con contenido sensible solo reflejan los resultados de las encuestas de experiencia del usuario, no la evaluación general del nivel de aparición del contenido en la plataforma.
La empresa no ha respondido más al memorando de entendimiento interno relacionado con la estrategia centrada en los adolescentes.
A finales de 2025, Meta anunció que fortalecerá las medidas para proteger a los usuarios jóvenes eliminando imágenes y videos que contengan contenido de desnudez o actividad sexual explícita, incluso si están creados con inteligencia artificial, excepto en algunos casos educativos o médicos.
En su declaración, el Sr. Mosseri también dijo que la mayor parte del contenido sensible se compartió a través de mensajes privados entre los usuarios, lo que obligó a la empresa a sopesar entre controlar el contenido y proteger la privacidad personal.