En un año en el que más de la mitad de la población del mundo irá a las urnas, la desinformación impulsada por la Inteligencia Artificial (IA) crea cada vez más incertidumbre, sobre todo, en contextos sociales como el de México, donde 7 de cada 10 personas desconocen qué es, para qué sirve o cómo se utiliza esta herramienta tecnológica.
La amenaza que representan los audios, videos, imágenes y “deepfakes” hechos con IA no son una preocupación aislada, pues líderes de todo el mundo y los mismos desarrolladores de software están considerando medidas que ayuden a contrarrestar lo que podría ser el peor impacto a la democracia a causa la desinformación viral.
Aunque escuchar del uso de las “deep fakes” suena algo alejado de México, ya empieza a evidenciarse este riesgo en nuestro proceso electoral corriente, simplemente, el pasado 24 de enero, Claudia Sheinbaum, candidata a la Presidencia de la República por Morena, alertó de un video que la imita en cuerpo y voz, en redes sociales, con el fin de defraudar a los usuarios pidiéndoles 4,000 pesos al mes para ganar la contienda; hasta el momento se desconoce quién generó el contenido, pero muestra evidencia de lo que es capaz el mal uso tecnológico con el fin de generar una guerra de desinformación e incidir o confundir el voto.
Te podría interesar
No obstante, para Daniel Legaspi, experto en Propiedad Intelectual y Derecho de las Tecnologías, la prensa será un jugador clave, antes, durante y después del proceso electoral, pues su poder de difusión podría ser empleado como un “regulador de la verdad”, suponiendo que se garantice, por parte de las autoridades, una real libertad de expresión y, de lado de los medios, un compromiso de objetividad editorial sin intención de polarizar o dividir a la ciudadanía.
“Para empezar, yo creo que los medios son los primeros que tienen que conocer la inteligencia artificial para poder usarla a su favor; afortunadamente ya existen también herramientas impulsadas con IA que te permiten diferenciar qué es real y qué no; segundo, dependerá de los mismos medios iniciar algunos procedimientos para bajar el contenido falso, incluso si este ya se viralizó lo suficiente, tendrán que competir en la viralización y usar ese posicionamiento ganado en Internet para lanzar un comunicado que expresamente diga que la fotografía o el audio o el video que circula no es real y se sacó de contexto”, expone el también socio de Santamarina y Steta.
Bajo este precepto, Legaspi explica a La Silla Rota que, para entender cómo funcionan los algoritmos de las aplicaciones o páginas que seguimos en Internet, primero hay que centrarnos en el tipo de influencia psicológica que se emplea para vender: bajo la tendencia actual del marketing es como la información también genera opiniones y afinidades políticas.
Esto quiere decir que todas las herramientas tecnológicas permiten analizar la data de sus usuarios o consumidores, sus interacciones, gustos y búsquedas; esto, a su vez, genera una una “selección” estadística de publicidad personalizada y les muestra los contenidos más cercanos a su comportamiento habitual. “No es que tu celular te esté escuchando, pero sí te lee y puede influenciarte”.
“Desafortunadamente, estas tecnologías están influenciando de más y esto genera, de entrada, que se usen las herramientas de inteligencia artificial directamente para promover las llamadas 'deepfakes' y 'fake news', que le lleguen al usuario por la misma vía, relacionando los temas que sigue, pero sin la posibilidad de que reconozca si es real o no”, dice.
Reto electoral para México y el mundo
La posibilidad de que cualquier persona pueda usar la Inteligencia Artificial para promover a un partido político, impulsar a un candidato o desprestigiar a otro, es un riesgo que corren todos los procesos electorales de 2024; en México, particularmente, al ser un país con bajo desarrollo y educación tecnológica, el bombardeo de contenido sospechoso y malicioso hará vulnerable a los cerca de 98 millones de posibles votantes que se darán cita en los módulos del Instituto Nacional Electoral (INE) el próximo 2 de junio.
Y es que, de acuerdo con datos de la compañía de ciberseguridad Kaspersky, el 72 por ciento de los mexicanos no sabe qué es un “deepfake” y 62 por ciento no sabría reconocer contenido de este tipo; la encuesta castiga a Latinoamérica si contemplamos que este nivel de desconocimiento se extiende a países como Perú, con el 75 por ciento; Chile, 72; Argentina, con 67; Brasil, 66; y Colombia, con el 63 por ciento de ciudadanos que ignoran los métodos de IA con los que hoy se puede recopilar datos, expresiones, movimientos físicos y hasta la voz de cualquier persona para crear un video ultrarealista en el que se suplante su identidad.
La tendencia nació como una forma inocente de imitar tácticas de los estudios cinematográficos de Hollywood; hoy, pueden presentarse con discursos que buscan generar pánico, alarma, miedo y rechazo público hacia una persona. Por ejemplo, en febrero de 2022, cuando se desató la guerra entre Rusia y Ucrania, en TikTok se difundió el video de un Vladímir Putin hecho con inteligencia artificial que aseguraba iba a desatar la tercera guerra mundial, pasaron muchas horas de incertidumbre mundial hasta que el “deepfake” se desmintió e, incluso, se generaron varias cuentas donde este personaje ficticio, pero idéntico, realizaba bailes cómicos junto al Presidente de Estados Unidos, Joe Biden.
“Lo vimos hace poco también con Donald Trump, con estas imágenes que salieron de él siendo arrestado… este tipo de crisis tecnológica, lamentablemente, deriva del acceso que ahora tenemos, y de que el desarrollo de estos avances se abriera a la población en general”.
“Ya hablamos, en términos de innovación, de un antes y un después de la inteligencia artificial. No quiere decir que no hayan desarrollado esto en las empresas antes, pero el sacarlo al público abre muchas puertas, oportunidades buenas, pero también malas”, expone el experto.
Aunque pocos, en México ya tenemos una serie de denuncias por el uso de tecnología en la suplantación de identidad; por ejemplo, en el ámbito político, Martí Batres, Jefe de Gobierno de la Ciudad de la México, aseguró que el audio viral en el que supuestamente pedía apoyar una campaña contra Omar García Harfuch, entonces aspirante a la candidatura de Morena para la CDMX, había sido alterado con inteligencia artificial, en noviembre del año pasado; mientras que en el sector empresarial, esta misma semana, el 25 de enero, Arturo Elías Ayub, Director de Alianzas Estratégicas y Contenidos de América Móvil, Director General de la Fundación TELMEX Telcel y Director de Uno TV y Claro Sports, alertó de un video en Facebook donde aparece su imagen invitando a invertir en un negocio petrolero inexistente.
El “voto” artificial
Este año habrá elecciones en México, pero también en El Salvador, Perú, Panamá, Venezuela, República Dominicana, Uruguay, Estados Unidos, Indonesia, Reino Unido y muchos otros países, por lo que líderes de todo el mundo ya centran su atención en las amenazas que la democracia puede tener en 2024 con el impulso de la desinformación, ya sea escrita, auditiva o visual: la inteligencia artificial tiene la capacidad de imitar casi cualquier actividad humana.
En la última reunión de Davos, líderes del Foro Económico Mundial abordaron las distintas formas en que gobiernos podrían regular la IA, incluso personajes como Sam Altman, representante de OpenAI, y Bill Gates, fundador de Microsoft, se pronunciaron por el riesgo que reconocen en sus desarrollos, aunque acotaron que, en términos electorales, la desinformación siempre se ha visualizado como el principal reto.
Mientras tanto, dado que muchos reguladores electorales locales no hacen su trabajo o tienen sistemas obsoletos, OpenAI se comprometió a lanzar una herramienta de prueba capaz de identificar el contenido generado por IA, poniendo una especie de “marca de agua” a las imágenes hechas con Dall-E, mientras que aún trabaja en un plan para evitar que ChatGPT sea utilizado en campañas políticas.
“Estamos viviendo tiempos donde la tecnología, dada la falta de regulación, todavía no está correctamente implementada y habrá gente que se aproveche de esto. Sí son necesarias leyes o reglamentos de aplicación que nos den un poco más de directriz”.
“En México sí hay leyes que regulan la tecnología desde un aspecto, por ejemplo, de propiedad intelectual, tenemos la Ley Federal del Derecho de Autor que regula la protección de los derechos de los creadores o titulares; en tema de innovación tecnológica están las patentes, la Ley Federal para la Producción de la Propiedad Industrial, o la Ley General en materia de Humanidades, Ciencias, Tecnologías e Innovación, que se publicó en 2023, pero es más como una especie de lineamientos o directrices que se debe de llevar a cabo de forma cívica, etc.”, explica el abogado de Santamarina y Steta.
Con este entendido, el experto en Derecho de las Tecnologías, Daniel Legaspi, concluye en que para el proceso electoral no existen herramientas suficientes o elementos legislativos para activar alguna violación al tratamiento de la información que se utiliza en la inteligencia artificial, por lo que 2024 deberá ser el punto de aprendizaje con el que se ponga el tema en la mesa e, incluso, se sigan los pasos de otros países o, por lo menos, se inspiren políticas especializadas que ayuden al mismo órgano regulador a garantizar elecciones limpias y ágiles, usando, quizá, la misma IA a su favor, aunque sea en la automatización de algunas labores administrativas.