Hace unos días, el historiador Yuval Noah Harari escribió: “El peligro es que, si invertimos demasiado en el desarrollo de IA y demasiado poco en el desarrollo de la conciencia humana, la muy sofisticada inteligencia artificial de las computadoras pueda servir solo para empoderar la estupidez natural de los humanos”. Creo que tiene razón.
Muchos pensadores han lanzado advertencias tempranas sobre los desafíos que la inteligencia artificial (IA) impone al desarrollo de la humanidad. Aunque la atención se ha incrementado tras el lanzamiento de ChatGTP, capaz de crear desde himnos a aeropuertos hasta sofisticadas decisiones de negocios, la realidad es que desde hace rato que vivimos con la IA de manera cotidiana en los teléfonos o asistentes de voz en el hogar.
Como todo instrumento, la IA por sí misma no es buena ni mala: el problema está cuando se confunden los medios con los fines. Si se piensa en la inteligencia artificial como un vehículo que desplaza otro tipo de capacidades humanas, haciendo de estas menos prioritarias en la formación cognitiva de las personas, estaríamos avanzando entonces en sentido inverso al proyecto de la ilustración.
En particular, existen tres ámbitos en los que, considero, una inadecuada implementación de la IA en la humanidad podría erosionar la capacidad cognitiva presente y futura del mundo: el aprendizaje, el engaño y la convivencia social.
Sobre el aprendizaje, es innegable que la IA ha sido un potente impulsor para acercar mayor conocimiento a escalas inéditas. Sin embargo, cuando la IA se convierte cada vez más en una fuente de procesos acabados, en lugar de ser instrumental para procesar conocimiento humano, se crean incentivos para dejar de aprender hasta las cuestiones más elementales.
Por ejemplo, mediante ChatGTP, una persona puede solicitar que una carta de amor sea escrita o un trabajo escolar redactado con tan solo ingresar algunos parámetros. ¿Cómo convencer, a las futuras generaciones, de que es importante realizar ese tedioso ejercicio de pensar, cuando una computadora puede hacerlo por mí? El detalle es que, en este proceso, se olvida la incapacidad de reflexión abstracta de las máquinas, y que el sentido humano y ético no forma parte de la esencia de los chips. Si hoy hemos olvidado a sumar o restar, o recordar algún número de teléfono porque una máquina hace esa tarea, el riesgo es que mañana también se olvide cómo los humanos reflexionamos y pensamos.
La información vía IA es también una fuente de engaños posibles. Llegará un momento en donde sea indistinguible qué proviene de un humano o no, y cuáles son esas realidades inexistentes que manipulan la percepción pública y, por tanto, las decisiones que tomamos. Recientemente, una fotografía del Papa Francisco con una imponente chamarra blanca creada por IA fue asumida como real, derivando en críticas a la opulencia de la iglesia. Y no es que sea opulenta o no, sino la manera en que se tergiversa la interpretación del mundo en que vivimos. ¿Cuántas cosas no vemos ya, y veremos, que impliquen distorsiones a la democracia, la reputación pública, o los productos en el mercado?
Y, finalmente, esos riesgos ponen también en peligro la convivencia social. Si la capacidad de construir comunidades reside en el debate e intercambio de ideas, un limitado razonamiento con engaños informativos por doquier incentivan a la generación de tejidos sociales más débiles. A esto se suma la impresionante capacidad que la IA tiene para atraparnos en universos de ocio, y de sustitución de relaciones personales por diálogos virtuales. Si lo que nos define como humanidad es, precisamente, ser humanos, restar esa característica por el desplazamiento de la tecnología no puede ser una buena noticia.
Soy un entusiasta del desarrollo tecnológico, y sé que la IA tiene grandes promesas para la humanidad. Pero también sé que cuando la tecnología suplanta la esencia elemental de los humanos, corremos el riesgo de volvernos, cada vez, más estúpidos.