TECNOLOGÍA

Los peligros ocultos de la inteligencia artificial | Primera parte

Existen múltiples beneficios en las aplicaciones de IAG, también riesgos potenciales. | Leonardo Martínez

Escrito en OPINIÓN el

Inicio con éste una serie de artículos en los que iré reflexionando sobre las implicaciones éticas, económicas y sociales de la revolución que estamos viviendo estos días: la de la explosión de aplicaciones de la inteligencia artificial generativa (IAG).

Las noticias falsas y verdaderas sobre el potencial y los alcances de esta tecnología se acumulan todos los días, provocando un revuelo de elucubraciones, preocupaciones y temores fundados que aumentan la confusión y las opiniones encontradas. La incertidumbre sobre los aconteceres que vienen es muy grande y, como ha quedado claro, ni los creadores de la IAG saben bien a bien cuál será la configuración de los escenarios que tendremos en el futuro cercano. Todo ello hace que valga la pena tratar de darle un poco de orden a los argumentos de las partes y reflexionar de paso sobre algunas ideas de fondo.

Empecemos por recordar que es esto de la inteligencia artificial generativa. Se trata de un tipo de inteligencia artificial diseñada para crear o generar contenido nuevo en forma de imágenes, texto, música o videos. Funciona aprendiendo patrones y estructuras mediante el análisis de billones de datos existentes y luego utilizando ese conocimiento para crear contenido nuevo y original que sea similar a lo que ha aprendido. Estos son los modelos que nos han sorprendido con impresionantes obras de artes plásticas, con escritos literarios, con excelentes resultados en exámenes arbitrados de derecho, física, química, matemáticas y otras materias, con la realización eficiente y precisa de actividades y tareas de muchos empleos, con el diseño de estrategias de negocios y de campañas publicitarias, entre otras muchas cosas.

El listado de las ventajas y los beneficios que podemos obtener de estas aplicaciones es largo, pero también lo es el de los riesgos potenciales, los cuales son siempre más difíciles de prever por muchas razones. Por ello me parece que para entender mejor el tamaño de los riesgos que enfrentamos ante el uso generalizado de estos modelos, hay que hablar de algunos temas de fondo que resultan cruciales para vislumbrar el abanico de riesgos que enfrentamos. 

De entrada, son dos los temas que quisiera traer a la mesa: primero, el de ciertos rasgos muy comunes de personalidad de nosotros los humanos, y segundo, el de la forma en la que estamos organizados política, social y económicamente. Cómo irá quedando claro a lo largo de estos textos, estos aspectos son cruciales en lo que se refiere a los alcances y la magnitud de los impactos que pueden llegar a tener las aplicaciones de la IAG.

Empecemos por mencionar que de entre los rasgos comunes de personalidad, entendidos en un sentido muy amplio, la ingenuidad, la aversión por conceptos y explicaciones científicas o complicadas y la propensión al pensamiento mágico crean contextos de alta vulnerabilidad ante argumentos falsos o maliciosos. Como se ha comprobado en innumerables ocasiones, suelen ser altas las proporciones de la población que exhiben gran vulnerabilidad ante afirmaciones o noticias falsas y dolosas, lo cual representa un problema serio cuando el uso sin controles éticos de la IAG la convierte en una herramienta potencialmente muy efectiva para la propagación hiperpersonalizada de ese tipo de mensajes. 

Los impactos de algo como lo que se menciona se amplifican cuando consideramos otro rasgo bastante común, que es el de la facilidad de sumisión: siempre hay quienes saben cómo usar y abusar del poder y quienes están dispuestos a someterse y a obedecer órdenes irreflexivamente y sin muchos titubeos.

La sumisión contemporánea es un problema preocupante, como lo hemos observado con la capitulación de muchas sociedades ante las promesas mágicas e irreales de líderes mesiánicos y populistas, pero esto se agrava ante la posibilidad de que los sistemas de inteligencia artificial (no necesariamente diseñados con fines maliciosos) incrementen la sumisión ya no a una persona de carne y hueso sino a una máquina mediante el rafagueo sistemático de mensajes creíbles y convincentes.

Hoy en día sabemos que este tipo de escenarios ya no son ciencia ficción. Sabemos que son escenarios posibles y que muchos analistas serios y conocedores de los entretelones de la IAG están externando públicamente sus preocupaciones bien fundamentadas. Los peligros para la democracia, asociados al uso libre y no regulado de la inteligencia artificial, son reales y tangibles.

Esos peligros se mueven por varios caminos, como el de la acumulación excesiva de poder en los dueños de estos modelos, quienes están amasando una cantidad inimaginable de información y datos de personas, organizaciones y gobiernos que pueden usar de muchas maneras.

Un ejemplo de esa preocupante concentración de poder es el caso de Elon Musk, el controvertido dueño de una constelación de empresas tecnológicas como Tesla, Space X y Starlink. Con esta última, Musk controla casi totalmente el estratégico sistema mundial de internet satelital, el cual cuenta actualmente con 4,500 satélites en órbita y la meta es llegar a 42,000.

Orgulloso representante del sistema patriarcal, con una personalidad errática,  visceral y de bajos umbrales éticos, Musk tiene altamente preocupados a gobiernos y jefes militares de todo el mundo pues tiene acceso a grandes cantidades de información y datos que pueden ser usados para los fines que él quiera.

Aunque en este caso el poder va más allá de los datos. Por ejemplo, las operaciones militares de Ucrania dependen críticamente de Starlink; los jefes militares de ese país han declarado que si Musk decide un día bajar el switch y dejar sin internet a Ucrania, la guerra está perdida.

Seguimos con el tema en la próxima columna.