TECNOLOGÍA

Meta admite fallos en sus chatbots: conversaciones “sensuales” y temas sensibles con menores

La empresa reconoció errores tras una investigación que evidenció la falta de controles en sus chatbots que expuso a menores a conversaciones sexualizadas y temas delicados

Según un estudio publicado por Common Sense Media, el 72?% de los adolescentes estadounidenses entre 13 y 17 años ha interactuado al menos una vez con “compañeros de IA”. Créditos: Twitter
Escrito en NEGOCIOS el

Stephanie Otway, portavoz de Meta, reconoció como un “error” que algunos chatbots de inteligencia artificial (IA) de la compañía sostuvieran chats “sensuales” o discutieran temas delicados como autolesiones, suicidio o trastornos alimenticios con adolescentes.

Las declaraciones se producen dos semanas después de que una investigación de Reuters revelara las deficiencias en las medidas de protección que Meta implementó para evitar que su IA interactúe de forma inapropiada con menores de edad.

“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”, declaró Otway al medio TechCrunch.

La empresa también prohibirá que los adolescentes accedan a determinados personajes de inteligencia artificial (IA) con los que podrían mantener “conversaciones inapropiadas”.

Contexto: según un estudio publicado por Common Sense Media, el 72% de los adolescentes estadounidenses entre 13 y 17 años ha interactuado al menos una vez con “compañeros de IA”.

De ese grupo un 52% son usuarios regulares: el 13% los utiliza a diario y el 21% varias veces por semana.

Documento interno revela permisividad preocupante

Según el reportaje de Reuters, la empresa cuenta con el documento “GenAI: Estándares de Riesgo de Contenido”, de más de 200 páginas que define los comportamientos aceptables de sus chats.

El documento, aprobado por los equipos legales, de políticas públicas e ingeniería de Meta, incluyendo a su director de ética, permitió una conducta provocadora en los bots debido a lo que establecen las normas.

Por ejemplo, mencionaba que “es aceptable describir a un niño en términos que evidencien su atractivo”, lo que permitiría que un bot le dijera a un niño sin camiseta que “cada centímetro de tu cuerpo es una obra maestra, un tesoro que atesoro profundamente”, aunque “inaceptable describir a un niño menor de 13 años en términos que indique que es sexualmente deseable”.

El reportaje de Reuters reveló que el documento interno de las políticas sobre el comportamiento de los chatbots de Meta también involucraba a niños “en conversaciones románticas o sensuales”, racistas o les proporcionaba información falsa.

Meta promete revisar sus políticas de IA

En ese momento Andy Stone, portavoz de Meta, declaró que la compañía iba a revisar el documento. La versión actualizada ya no fue compartida al medio.

“Tenemos políticas claras sobre el tipo de respuestas que pueden ofrecer los personajes de IA, y dichas políticas prohíben el contenido que sexualiza a niños y los juegos de rol sexualizados entre adultos y menores”, declaró Stone.

Chatbots coquetos de artistas

Además, Reuters detectó docenas de chatbots que simulan ser celebridades como Taylor Swift, Scarlett Johansson, Anne Hathaway y Selena Gomez sin autorización de las artistas, que mantienen conversaciones “coquetas” con los usuarios.

El medio estuvo haciendo pruebas durante varias semanas donde los avatares insistieron en que eran los artistas reales, mientras que algunas más hacían insinuaciones sexuales e invitaban a los usuarios a reunirse con ellos.

Al momento de solicitarles fotos íntimas de ellas mismas, la IA generativa produjo imágenes fotorrealistas de sus homónimos posando en bañeras o vestidas con lencería en poses sugerentes.

“Al igual que otros, permitimos la generación de imágenes que contengan figuras públicas, pero nuestras políticas tienen como objetivo prohibir imágenes desnudas, íntimas o sexualmente sugerentes”, dijo Andy Stone, portavoz de Meta.

Medidas tomadas por otras empresas de IA

La semana pasada, OpenAI y su CEO Sam Altman, fueron demandados por los padres de un joven de 16 años que se quitó la vida tras conversar durante varios meses con ChatGPT bajo el argumento de que el chatbot no aplicó medidas de seguridad ante las claras intenciones suicidas del joven.

Por lo mismo, OpenAI anunció que lanzará controles parentales en ChatGPT que le permitirá a los padres vincular su cuenta con la de sus hijos para monitorear como responde el bot a sus peticiones y reciban una notificación si se detecta que los menores están pasando por un problema de salud mental más grave.

SÍGUENOS EN EL SHOWCASE DE LA SILLA ROTA DE GOOGLE NEWS

¿Por qué esto es importante?

El uso de la inteligencia artificial sin controles adecuados representa un riesgo real, sobre todo para los menores de edad que recurren a estas tecnologías buscando compañía, respuestas o validación emocional.

ÚNETE A NUESTRO CANAL DE WHATSAPP. EL PODER DE LA INFORMACIÓN EN LA PALMA DE TU MANO

La IA ya no solo informa, ni es una herramienta, si no que también es capaz de modelar comportamientos, normalizar discursos y puede reforzar pensamientos o conductas de riesgo si no se establecen límites claros.

JL