Instagram ha anunciado un nuevo mecanismo de alertas que notificara a los padres de familia cuando sus hijos realicen búsquedas de términos relacionados con el suicidio o la autolesión en la plataforma.
La función forma parte de las herramientas de supervisión parental que Meta está implementando para proteger a los usuarios jóvenes.
¿Cómo funcionará la alerta?
La medida se implementará para los padres que hagan uso de las herramientas de supervisión parental de Instagram en países como Estados Unidos, Reino Unido, Australia y Canadá.
Te podría interesar
Cuando Instagram detecté que los menores intentan buscar de manera repetida términos vinculados al suicidio o la autolesión, llegará una alerta a los padres a través de correo electrónico, SMS, WhatsApp o dentro de la misma app de acuerdo con los datos de contacto disponible.
Al tocar la notificación, los padres verán un mensaje a pantalla completa que explicará la situación, junto con recursos especializados para apoyar y acompañar la conversación con su hijo sobre este tema delicado.
“Estas alertas están diseñadas para brindar a los padres la información necesaria para apoyar a sus hijos adolescentes e incluyen recursos especializados para ayudarlos a abordar estas conversaciones delicadas” explica el comunicado de la compañía.
También lee: “Ver miles de likes en otras personas te hacen sentir mal”, Renata, usuaria de redes sociales.
Qué busca detectar Instagram
La alerta se activará con términos que sugieran que el adolescente podría estar contemplando hacerse daño, o palabras explicitas como “suicidio” o “autolesión”.
Aunque Instagram ya bloquea contenido que promueve o glorifica estas conductas, permite que se comparta contenido en el que las personas hablen de sus propias experiencias difíciles, y en esos casos oculta ese material a los adolescentes.
Además, Meta indicó que está trabajando en notificaciones similares para conversaciones que los adolescentes puedan tener con funciones de inteligencia artificial dentro de la plataforma, para alertar a los padres si se detectan señales preocupantes también durante estas interacciones.
De acuerdo con la propia compañía, la medida se activará “la semana que viene” en Estados Unidos, Reino Unido, Australia y Canadá, mientras que en otras regiones podría estar disponible “a finales de este año”.
También lee: Zuckerberg defiende a Instagram en juicio: "mienten sobre su edad para usar nuestros servicios”.
Contexto legal y regulatorio
La medida se da en un momento en que Meta enfrenta múltiples demandas que cuestionan el impacto de sus productos en la salud mental de los menores.
La demanda presentada por Kaley, identificada KGM, una joven de California, y su madre, Karen Gleen. sostiene que las plataformas diseñaron funciones adictivas que afectaron gravemente la salud mental de la adolescente desde que comenzó a usar redes a los 10 años.
Mark Zuckerberg, fundador de Facebook y CEO de Meta, declaró en el juicio del caso de Kaley que existe un “un número significativo” de usuarios que miente sobre su edad para poder acceder a plataformas como Instagram.
La Comisión Federal de Comercio (FTC) señaló que no sancionará a empresas que recopilen datos para desarrollar sistemas de verificación de edad, pese a las restricciones de la normativa de privacidad infantil.
Además, en un juicio en Nuevo México salieron a la luz mensajes internos que advertían que el cifrado podría dificultar reportes de abuso infantil.
Meta negó estas acusaciones y aseguró que continúa reforzando sus herramientas de protección.
