INTELIGENCIA ARTIFICIAL

Inteligencia Artificial: estas serían sus consecuencias “catastróficas”

Estados Unidos, China, India y países de la Unión Europea analizaron los peligros que representa la Inteligencia Artificial y acordar medidas preventivas

Créditos: Twitter
Escrito en MUNDO el

Los gobiernos mundiales reunidos en una cumbre de seguridad sobre inteligencia artificial (IA) en Reino Unido alertaron en una declaración conjunta sobre las potenciales consecuencias "catastróficas" de la nueva tecnología.

Estados Unidos, China, India y países de la Unión Europea como Francia, Alemania y España están entre los 29 firmantes de un texto que recalca que es "especialmente urgente" analizar los peligros que presenta la nueva tecnología y acordar medidas preventivas tempranas.

"Nos comprometemos a trabajar juntos de manera inclusiva para asegurar una inteligencia artificial centrada en el ser humano, confiable y responsable", señala la declaración, pactada antes de la cumbre y que subraya que el mejor modo de afrontar los riesgos es la "cooperación internacional".

ÚNETE A NUESTRO CANAL DE WHATSAPP EN ESTA LIGA

Reunidos en Bletchley Park, el enclave inglés en el que se decodificaban los códigos nazis durante la Segunda Guerra mundial, representantes de las principales potencias globales en el sector tecnológico constaron el "potencial transformador" de la IA, que puede impulsar "el bienestar, la paz y la prosperidad".

Junto con esos posibles beneficios, sin embargo, van asociados "riesgos significativos" que obligan a velar por que el desarrollo de la tecnología se mantenga bajo "una supervisión humana adecuada".

La declaración reconoce el peligro de que la IA genere "contenido manipulado" o "engañoso", y urge a tomar medidas en ese sentido, pero va más allá y alerta sobre futuras amenazas provenientes de sistemas "de frontera", que excederán las habilidades de los actuales modelos más avanzados.

PUEDES LEER: ¿Regular la Inteligencia Artificial?

Además de la desinformación, los gobiernos se declaran especialmente preocupados por las aplicaciones de la IA en terrenos como la ciberseguridad y la biotecnología.

"Existe el potencial de que se produzcan daños graves, incluso catastróficos, ya sea de manera deliberada o no intencional", subraya el comunicado.

"Dado el rápido e incierto ritmo de los cambios en la IA, y en el contexto de una aceleración de las inversiones en tecnología, afirmamos que profundizar en nuestra comprensión de esos riesgos potenciales y las acciones para mitigarlos es especialmente urgente", agrega la declaración.

El Reino Unido ha impulsado la primera cumbre de seguridad global sobre inteligencia artificial (AISS, en inglés), que volverá a convocarse dentro de seis meses en la República de Corea y dentro de un año en Francia.

A este primer encuentro, que durará hasta el jueves, asisten, además de gobiernos, representantes de las principales empresas tecnológicas globales, como OpenAI, Google DeepMind, Anthropic, Meta y Microsoft.

Claves para regular la IA en EU

El presidente de Estados Unidos, Joe Biden, firmó recientemente una orden ejecutiva con el propósito de controlar el desarrollo de sistemas de Inteligencia Artificial (IA) y su aplicación en todos los sectores de la sociedad, debido a los riesgos que esta nueva tecnología plantea.

Biden destacó que la IA “es la tecnología más trascendental” de la historia reciente, con aplicaciones a todos los campos de la ciencia, la economía y la sociedad, pero que también presenta muchos riesgos por lo que tiene que ser controlada.

Al respecto, la senadora Alejandra Lagunes compartió a través de su cuenta de ‘X’, algunas claves que plantea la orden ejecutiva sobre Inteligencia Artificial presentada por Biden.

En el primer punto, se destaca que los desarrolladores de IA deben compartir los resultados de sus pruebas de seguridad con el gobierno federal. 

Segundo el Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés, National Institute of Standards and Technology) elaborará guías y mejores prácticas para garantizar el despliegue y uso seguro de la IA.

En el tercer punto, explicó que se aborda la seguridad de personas usuarias de IA, utilizando modelos para proyectos relacionados con ciencia y biología. 

Cuarto punto establecer que el contenido generado por IA deberá tener una marca de agua. 

En el quinto punto, se fomenta la innovación en el desarrollo de IA bajo la guía del "AI Cyber Challenge".