Escena en un canal de noticias: Una menor de edad, se acerca a su madre para explicarle que hay imágenes de ella desnuda siendo compartidas entre sus compañeros de clase. Es su cara, pero ese no es su cuerpo, asegura; la pose y el entorno se parecen a una foto que subió a Instagram hace algunos meses, cuando estuvo en la playa. La madre, desesperada, ve la fotografía y le queda claro, dice, ese no es el cuerpo de su hija.
Noticias:
- En los equipos informáticos de Diego “N”, estudiante de la Escuela Superior de Comercio y Administración (ESCA) del IPN, se encontraron más de 166 mil fotografías y videos de contenido sexual; al menos 50 mil de esas eran de sus compañeras, y las vendía en redes y grupos de whatsapp. Sin embargo, esas escenas no habían existido en la realidad, Diego utilizó inteligencia artificial para modificar o manipular imágenes y videos que las compañeras, algunas menores de edad, subieron a sus redes sociales.
Te podría interesar
- Hace algunos meses, trascendió que artistas como Ángela Aguilar, Rosalía o Gal Gadot habían sido también víctimas de que se compartieran imágenes suyas con contenido sexual explícito hechas a través de inteligencia artificial
- En España, hace unas semanas, un menor fue detenido por poseer y distribuir en internet imágenes de pornografía infantil creada también con inteligencia artificial.
El Deepfake (podría traducirse como ultrafalso o profundamente falso) es una técnica de inteligencia artificial que utiliza algoritmos para crear, a partir de imágenes ya existentes, videos realistas pero ficticios. Se le han dado muchísimos usos, uno de los más famosos fueron las escenas en la película de Star Wars, Rogue One, en las que aparece la princesa Leia con la cara de una joven Carrie Fisher, aunque la escena original fue grabada por la actriz Ingvild Deila. Es un fenómeno cada vez más común y sus usos son variados, sin embargo, estudios realizados en los últimos años en las páginas web dedicadas a material pornográfico han detectado un tremendo aumento de contenido creado por inteligencia artificial. Más aún, los datos hablan de páginas web y grupos dedicados únicamente a la distribución de contenido creado de manera virtual, principalmente a partir de imágenes de mujeres reales, sin su consentimiento.
Todas estas noticias son reales y son relevantes, la violencia sexual y la violencia digital la viven mayoritariamente las mujeres y alertar sobre el aumento en este tipo de actividades es necesario. Sin embargo, hay también un mensaje más profundo.
Hace algunos años, se nos “enseñaba” a las mujeres a que si no queríamos que imágenes de nuestro cuerpo fueran distribuidas la solución era no tomarlas (tras la filtración de imágenes íntimas de famosas, se le dedicaron horas de discusión pública a la responsabilidad de compartir nudes con nuestras parejas ante el riesgo de que las hicieran públicas una vez terminada la relación o las compartieran entre amigos, pocas veces el foco se puso en la responsabilidad de ellos en no difundirlas), el debate del porno deepfake parece decirnos que no hay espacio seguro frente a la violencia sexual. Que son nuestras fotografías en la playa con nuestras amigas las que nos ponen en riesgo, las de nuestras niñas jugando en la calle las que las hacen presa de pederastas digitales; que, si no pusiéramos nuestros cuerpos ni nuestras imágenes en el espacio público, nos libraríamos de ser agredidas y violentadas.
En su trabajo sobre el terror sexual, Nerea Barjola argumenta que los relatos sobre violencia sexual que nos llegan desde los medios y productos culturales construyen un ambiente de terror sexual que sirve para controlar y someter la vida de las mujeres; de disciplinarnos sobre dónde y cómo debemos existir para no recibir violencia. El terror por la pornografía deepfake no es distinto a esto, es un mensaje profundo sobre si debemos existir en el espacio digital, y cómo debemos hacerlo.
Y sí, la violencia digital abarca muchos tipos de acciones que recibimos en el entorno digital, las mujeres entre 12 y 39 años son quienes más violencia digital sufren y las situaciones más frecuentes son: recibir contenido sexual, recibir insinuaciones o propuestas sexuales no consentidas, mensajes ofensivos, suplantación de identidad y acoso; únicamente en 2022, de acuerdo al INEGI, 9.8 millones de mujeres fueron violentadas en el espacio digital. Y así como antes se nos dijo que, si no queríamos que nuestras fotos íntimas se compartieran, no nos las tomáramos, ahora el mensaje es que cuidemos todas las imágenes de nosotras que existen en el espacio digital, que las limitemos, que nos borremos del espacio digital si no queremos que nuestra cara aparezca en el siguiente video porno de una página web.
Recordemos que la difusión de contenido íntimo sin consentimiento es un delito, gracias a lo contemplado en la Ley Olimpia, que no es una única ley sino un conjunto de reformas incluidas en la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y el Código Penal Federal que reconoce la ciberviolencia como un atentado directo en contra de los derechos humanos. Revictimizar a quien denuncia la difusión de sus imágenes sin consentimiento cuestionando la existencia de esas imágenes, minimizando la violencia ejercida por ser “imágenes falsas” o la responsabilidad de quien genera, distribuye o adquiere dichas imágenes son estrategias de disciplinamiento social.
Los límites frente al abuso de las nuevas tecnologías digitales no pueden ser sobre los cuerpos contra los que se atenta. La violencia digital es denunciable y la distribución de imágenes de carácter sexual sin consentimiento es un delito. Nosotras no debemos salir de los espacios públicos (digitales o físicos), son los agresores quienes deben ser señalados.