LEGISLAR IA

IA y porno, ¿sirve legislar?

Celebremos el debate y la visibilidad de una problemática real, no celebremos la legislación floja buscalikes que no ha logrado resolver ni disminuir las violencias que vivimos miles de mujeres. | Graciela Rock

Escrito en OPINIÓN el

A inicios de semana, se aprobó en el Congreso de Sinaloa el decreto que adiciona el artículo 185 Bis F, al Código Penal de dicho Estado, el cual castiga el “uso de Inteligencia Artificial para crear, exponer, distribuir, difundir, exhibir, reproducir, transmitir, comercializar, ofertar, intercambiar y/o compartir imágenes, audios o videos de contenido sexual íntimo de una persona, sin su consentimiento”. La propuesta, presentada por la diputada Cinthia Valenzuela Langarica, añade que se entenderá por Inteligencia Artificial “las aplicaciones, programas o tecnología que analice fotografías, audios o videos, y ofrece ajustes automáticos para hacerles alteraciones y/o modificaciones”

¿Es esto una buena noticia? A medias. 

Como fue reportado y celebrado por diversos medios y organizaciones, a nivel nacional, son varias las entidades donde se está debatiendo el uso de este tipo de tecnología y la necesidad de una regulación clara y efectiva sobre la responsabilidad de quien utiliza Inteligencia Artificial, ya sea para crear contenido como para tomar decisiones sobre procesos médicos. Sin embargo, si bien la revisión y reforma de leyes es un ejercicio necesario, habría que cuestionarse si en este caso no se están creando más huecos que los que se están solucionando. 

El Código Penal de Sinaloa contaba ya con el artículo 185 Bis C, el cual se refiere al delito de violación a la intimidad sexual, en el cual se indica que lo comete “aquella persona que por cualquier medio publique, divulgue, difunda, comparta o distribuya imágenes, vídeos o audios, imprima o elabore textos de contenido íntimo sexual de una persona sin su consentimiento expreso, voluntario, genuino y deseado. […] También incurre en violación a la intimidad sexual quien para sí grabe, audiograbe, fotografíe, imprima, elabore textos o almacene, duplique o multiplique imágenes, audios o videos de contenido íntimo sexual de una persona sin su consentimiento expreso, voluntario, genuino y deseado”. Es decir, ya existía una legislación respecto a la violación a la intimidad sexual que incluía la elaboración de material de contenido sexual sin consentimiento, incluso textos o audios que describan el cuerpo desnudo –total o parcialmente– del sujeto. 

¿Al crear una normativa específica para el contenido creado con la herramienta de la inteligencia artificial nos están diciendo los legisladores que, sin ésta, los jueces no deben considerar un delito la creación y distribución de esos videos y fotografías? O, que es necesario una normativa específica para cada herramienta que puede ser utilizada para este fin. Si no se utiliza la Inteligencia Artificial, sino que el creador hace dibujos realistas con las caras de personas reales en situaciones de explícita sexualidad, ¿acaso eso no clasifica como un delito de violación a la intimidad sexual? O, si las herramientas que se utilizan no “ofrecen ajustes automáticos para hacer alteraciones y/o modificaciones”, entonces ¿no califica como delito? 

En un texto anterior, en el que hablé de la violencia sexual en el espacio digital y el rol de la Inteligencia Artificial, hice hincapié en la importancia de cuestionarnos cómo hablamos de estas violencias, ante el riesgo de caer en una nueva versión del “terror sexual” que enseña a las mujeres a no existir en el espacio público bajo el riesgo de ser violentadas. En el caso de estas nuevas leyes, debemos cuestionar qué es lo que estamos intentando lograr con ellas, y qué implicaciones tendrá en la realidad de un país con índices de impunidad como los de México. El problema no es la falta de normativa, sino su aplicación, y si las mujeres cuyas caras –en cuerpos que no son los suyos, representando fantasías masculinas sin su consentimiento– pueblan los foros de internet y los chats de whatsapp, tendrán una nueva carga al denunciar, de demostrar si esas imágenes fueron hechas por Inteligencia Artificial, o si las grabaron sin que ellas lo supieran, o si las dibujaron, o si alguien creó un texto con el que alimentó una herramienta digital que aún no conocemos; y no únicamente apelar a la violación de su intimidad sexual, a que esas imágenes están siendo difundidos sin su consentimiento. 

Celebremos el debate y la visibilidad de una problemática real, que requiere soluciones complejas; no celebremos la legislación floja buscalikes ni la profundización de un sistema punitivista que no ha logrado resolver ni disminuir las violenciassexuales y otras– que cada día vivimos miles de mujeres

Graciela Rock

@gracielarockm