“Se me ve todo, pero no es mi cuerpo, es mi cara, pero no es mi cuerpo. Yo esa foto la había subido ya hace rato a Instagram”, es la explicación de una mujer que fue víctima de violencia digital. Alguien tomó una foto suya de sus redes sociales y, mediante el uso de la tecnología, la cambió para que pareciera que estaba desnuda. Este tipo de montajes, es fotografía o video, con Inteligencia Artificial (IA) se llaman "deep fake" y representan un riesgo mundial.
ÚNETE A NUESTRO CANAL DE WHATSAPP. EL PODER DE LA INFORMACIÓN EN LA PALMA DE TU MANO
Un día de mayo, Johanna Villalobos, una comunicadora de origen costarricense, tomó su teléfono y, al revisar sus redes sociales, se enteró de la existencia de una foto suya en internet donde aparecía completamente desnuda en la playa.
Te podría interesar
“No soy yo, y lo más lamentable es que no puedo hacer nada al respecto”, decía a través de sus cuentas de X la mujer víctima de este nuevo fenómeno de violencia contra las mujeres.
Pero para hablar de este tipo de creaciones digitales y sus consecuencias en el mundo real, conviene saber qué es el fake porn, término derivado del inglés que hace referencia a la pornografía falsa creada con herramientas digitales.
Para el ex académico de la Universidad Nacional Autónoma de México (UNAM) y consultor sobre negocios digitales, Rubén Darío Vázquez, primero debemos saber qué es la tecnología deep fake.
“La tecnología deep fake es aquella que permite, ya sea sustraer el rostro de una persona o la voz de alguien para crear un material nuevo o insertarlo en uno ya previamente existente, así por ejemplo hemos escuchado canciones de Freddy Mercury cantando la canción Querida o algunas escenas de películas famosas con el rostro de otras personas y con la voz de otras personas generadas por inteligencia artificial”, explica, Vázquez.
SÍGUENOS EN EL SHOWCASE DE GOOGLE NEWS
Videos con escenas de películas modificadas, canciones "interpretadas" por artistas muertos, fotografías con personas de distintas épocas "reunidas", fotografías con desnudos falsos y hasta videos pornográficos con personas famosas; todos son creados mediante la tecnología deep fake.
Y son esas imágenes y videos modificados, con el fin de generar desnudos y relaciones sexuales falsas con rostros o tomando como base a rasgos de personas, los que se catalogan como esa rama de la tecnología deep fake.
“Se trata de estos videos de carácter pornográfico en donde en una escena se sustituye el rostro de la actriz o el actor que está en esta escena por el de alguna persona famosa, particularmente de mujeres famosas; ya sean actrices o figuras públicas, con el fin de crear una especie de fantasía para saber cómo se vería esta persona en una escena pornográfica”, explica el especialista y consultor de negocios digitales.
Violencia digital en las aulas
La mañana del 16 de octubre de 2023, mujeres estudiantes del Instituto Politécnico Nacional (IPN) realizaron una manifestación afuera de las instalaciones del Casco de Santo Tomás para denunciar el caso de un estudiante de la Escuela Superior de Comercio y Administración (ESCA) que había tomado fotos de sus compañeras en redes sociales y con IA las había convertido en desnudos para vender en grupos de Telegram.
Diego N. es el exalumno del IPN que, semanas atrás de la protesta, había sido descubierto con miles de fotos falsas, tipo deep fake, en una tablet.
Cuando las alumnas de la ESCA Santo Tomás supieron de las imágenes, comenzaron a denunciar ante autoridades del Politécnico y, posteriormente, de la Fiscalía de la Ciudad de México.
Luego de una primera desestimación del delito, las ocho jóvenes denunciantes fueron citadas, el 12 de octubre, por parte de representantes de la Fiscalía y, tras aquella reunión, se turnó el caso al área de Asuntos Internos para analizar si hubo irregularidades en la atención psicológica inicial.
Fueron las acciones y protestas de las estudiantes del IPN las que trasladaron a la agenda pública el caso de violencia digital contra las mujeres registrado.
En total, a Diego N. se le encontraron 166,000 fotografías creadas con inteligencia artificial y unos 20 mil videos similares, según información de la Asamblea Justicia Digital IPN. De las mujeres que aparecen en los videos y fotografías alterados, un 40 por ciento serían alumnas del IPN y con edades de entre 17 y 25 años.
Fue el lunes 16 de octubre que autoridades universitarias anunciaron la expulsión definitiva del joven acusado.
“Ante las diversas demandas de alumnas de la Escuela Superior de Comercio y Administración (ESCA) del Instituto Politécnico Nacional (IPN), por violencia digital por parte de un estudiante de ese plantel, la Comisión de Honor del Consejo Técnico Consultivo Escolar de la Unidad Académica dictaminó por unanimidad la baja definitiva del alumno”, confirmaron mediante un comunicado.
Diez días después, agentes de la Fiscalía General de Justicia capitalina detuvieron a Diego N., acusado del delito contra la intimidad, posteriormente un juez lo vinculó a proceso y fijó un plazo de dos meses de detención para las investigaciones.
Se trataría del primer caso de este tipo en México por una detención mediante lo estipulado en la Ley Olimpia y el uso de la Inteligencia Artificial para la creación de imágenes y videos.
“Tiene que estar regulado para ser sancionado”
Para la especialista en leyes y miembro de una colectiva de abogadas feministas, la Doctora Paola Nava Calvo podría haber un vacío en las regulaciones, como la Ley Olimpia, debido a que el uso de la Inteligencia Artificial para crear deep fake no contempla cuando las imágenes son similares a una persona y se crea un “avatar” o un personaje con características similares a una persona.
“Existe, y es lo que falta regular, es cuando estos son falsos y no son de personas, son avatar o entes creados similares a las personas, ahí es donde cambia y deja fuera el tipo penal a estas personas que crean por medio de la inteligencia artificial imágenes falsas o videos falsos ¡todo es falso! Y se puede alegar ‘es que sí es parecido’ pero no lo es”, explica la abogada feminista.
Nava Calvo considera que casos como el registrado en el Politécnico han hecho que se voltee la mirada a problemáticas como la del uso de la tecnología para estos fines, como lo hizo el ex estudiante, y a su vez, hace pensar sobre la actual regulación en la materia.
“Cuando no existe el consentimiento de las personas, no hay una aprobación y causan daño psicológico, emocional, en su vida privada o en su imagen, pues definitivamente tiene que estar regulado para ser sancionado porque esto ya nos está rebasando. Hay un problema y no se está poniendo solución, desafortunadamente así pasa, hasta que existe un caso muy sonado o que sale en los medios, otra vez voltean a ver”.
La doctora considera que todos los probables supuestos que pudieran darse en casos de deep fake deben ser analizados para actualizar las leyes que castigan la distribución de imágenes de carácter privado sin consentimiento.
Datos del Frente Nacional para la Sororidad revelan que, en un estudio de los años 2019, 2020 y 2021, se registraron un total de 1,705 casos de violencia digital. La entidad con más casos registrados es la Ciudad de México, con 291, seguida por el Estado de México, con 185, y Veracruz, con 70.
La inteligencia artificial al alcance de todos
Una de las grandes novedades de la tecnología fue el acceso de la Inteligencia Artificial mediante el ChatGPT (Generative Pre-Trained Transformer), una herramienta lanzada en noviembre de 2022 que sorprendió por su capacidad de aprendizaje y respuestas.
Un mes después del lanzamiento, la empresa que lo diseñó, OpenAI, calculaba que era usado por más de un millón de usuarios. El ChatGPT tiene su propia definición sobre esta rama del deep fake que violenta a las mujeres.
“El término generalmente se refiere a contenido sexualmente explicito manipulado o fabricado que utiliza tecnología, como la tecnología deepfake u otra formas de manipulación de imágenes y videos. Los deepfakes son videos o imágenes falsos generados por computadora que utilizan inteligencia artificial (IA) para reemplazar los rostros de las personas en videos o fotos existentes con los rostros de otras personas”.
Incluso, la inteligencia artificial del ChatGPT tiene algo que decir al respecto de las implicaciones legales y éticas del deep fake.
“La Creación y distribución de deep fake generan diversas cuestiones legales y éticas, incluyendo problemas relacionados con la privacidad, el consentimiento y la posibilidad de difusión de contenido explícito no consensuado. Muchas jurisdicciones están trabajando activamente en la legislación para abordar preocupaciones y combatir la creación y distribución de deep fake”.
“Nos rebasó por mucho la tecnología”
La abogada feminista considera que la Ley Olimpia y otras más sobre la protección a mujeres, están siendo superadas por nuevas formas de violencia.
“Se queda corta la legislación que tenemos actualmente, ya nos rebasó por mucho la tecnología y es de suma importancia que se regule la IA y más tratándose de que están vulnerando derechos, no solamente de mujeres, sino de niños”, dice Paola Nava.
En la actualidad son 29 los estados de la República Mexicana los que contemplan sanciones penales a la distribución de imágenes de carácter íntimo, siendo la excepción Nayarit, Tabasco y Morelos.
En los casos de violencia digital, la mayoría de los agresores son hombres, pues de que de cada 100 casos, 95 de las víctimas son mujeres, según datos del Frente Nacional para la Sororidad en su “Informe sobre violencia digital”.
El 30 de enero se cumplirán los dos meses dictados por un juez para que se presenten pruebas en el proceso de Diego N. Las alumnas denunciantes del caso advirtieron, a través de sus redes sociales, que no desistirán hasta que obtengan justicia: “el amor entre mujeres salva”.