APLICACIONES

¿Instagram promueve los perfiles de pedófilos? Esto sabemos

Meta con 3 mil millones de usuarios en sus aplicaciones como Instagram, Facebook y WhatsApp dijo que en los últimos dos años eliminó 27 redes de pedófilos

Créditos: Especial
Escrito en MUNDO el

Una investigación conjunta realizada por The Wall Street Journal, investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst, descubrieron que un algoritmo de Instagram está siendo utilizado para conectar y promover una amplia red de cuentas dedicadas a la pedofilia y la compra de contenido sexual de menores.

De acuerdo con la indagatoria es preocupante saber que Instagram, una red social muy popular entre los adolescentes, no solo permite la existencia de estas actividades ilícitas, sino que sus algoritmos las promueven activamente.

Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.

PUEDES LEER: Snapchat e Instagram, jóvenes caen en las redes del fentanilo

Instagram que tiene millones de usuarios permite a las personas buscar etiquetas explícitas y en ocasiones hasta emoticonos que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y "reuniones" con los menores, revelan los investigadores.

La promoción de contenido sexual de menores viola las reglas establecidas por Meta, así como las leyes de EU.

Meta redes de pedofilia

Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados.

Meta con 3 mil millones de usuarios en sus aplicaciones como Instagram, Facebook y WhatsApp dijo que en los últimos dos años eliminó 27 redes de pedófilos.

La plataforma, además, aseguró que bloqueó miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones, y que restringió los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual.

En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.

Por su parte, los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave.

"La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram", escribieron los expertos en un informe que se publica hoy.

El equipo de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que Twitter.

Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataformas, además, las eliminó mucho más rápido.

Algoritmo de Instagram bombardea a mujeres con trastornos alimentarios

Las redes sociales recomiendan de forma constante contenido asociado con nuestra actividad, no sólo en términos de likes y compartidos, sino utilizando nuestras búsquedas, las cuentas que seguimos, el tiempo que vemos un posteo y los hashtags que consultamos.

De acuerdo con una investigación realizada por Facebook, el algoritmo de Instagram beneficia el contenido en función de las búsquedas y preferencias de los usuarios que expresan interés en la dieta, la pérdida de peso y la delgadez.

Las etiquetas como #skinny, #thin, #thinspo mostraban imágenes con cuerpos extremadamente delgados, lo cual representa un riesgo para las niñas y jóvenes dentro de la plataforma, principalmente cuando Instagram es una plataforma donde predomina el contenido visual. Esta no es la primera vez que Facebook e Instagram encuentran este tipo de contenido en sus plataformas, a principios del mes de octubre retiraron una serie de cuentas bajo los nombres "I have to be thin" ("Tengo que estar delgada"), "Eternally starved" ("eternamente hambriento"),"I want to be perfect" ( "quiero ser perfecta") que el algoritmo le recomendó a  la cuenta de una niña de 13 años que expresó interés en adelgazar y hacer dieta.

La Dra. Andrea D. Vazzana explicó a The New York Post que el contenido en redes sociales como Instagram y TikTok, afecta al 99% de los pacientes con trastornos de la conducta alimentaria (TCA), incluidas mujeres y hombres adultos.

Este tipo de cuentas y hashtags no sólo contribuyen en promover una imagen distorsionada de la salud física a través del peso, sino que continúan normalizando conductas alimentarias riesgosas para niñas y jóvenes, principalmente cuando se asocian con los estereotipos de belleza.