INTELIGENCIA ARTIFICIAL

Inteligencia artificial, bioética y realidad social

Detrás de la IA hay una concentración de poder que resulta muy apetitosa para instancias diversas sin embargo deben prevalecer los intereses de la sociedad. | Leonardo Bastida

Escrito en OPINIÓN el

Esta semana, el mundo fue testigo del surgimiento de una nueva herramienta de inteligencia artificial (IA) que promete superar a sus antecesoras en su capacidad de resolución de problemas, pero, sobre todo, se le ha elaborado para tener una habilidad para manejar contextos extensos de hasta 128 mil tokens, lo que representa una memoria de contexto considerablemente ampliada y la posibilidad de procesar documentos de gran tamaño, 16 veces más que versiones anteriores de este tipo de herramientas. 

En un principio estará disponible para los usuarios premium de la red social, X, anteriormente twitter, en espera de que poco a poco se vaya haciendo del uso común, y esté al alcance de un mayor número de personas. Denominada como Grok 1.5, consiste en un chat inteligente, al igual que muchos otros ya existentes, entre ellos el GP4, por medio del cual las personas pueden obtener respuesta a múltiples preguntas y problemas matemáticos. Las evaluaciones previas a su lanzamiento han sido altas, alcanzando más de 80 por ciento de efectividad. 

De igual manera, Meta anunció la incorporación, en algunos países, de un chat de inteligencia artificial en la aplicación de WhatsApp, muy similar a otros ya existentes como GPT4, en espera de que la IA se integre totalmente a la herramienta. Por otra parte, varias compañías han anunciado el uso de datos sintéticos, es decir, datos generados por la propia IA con la finalidad de no pagar derechos de autor por datos elaborados por otras fuentes. 

Todo lo anterior, abre una serie de debates sobre el uso de la IA, su alcance, su incorporación en la vida cotidiana de las personas, y muchas otras implicaciones derivadas del avance de estas herramientas, muy vertiginoso, y muy probablemente, sin un respaldo ético de por medio. 

Debate bioético 

De acuerdo con eticistas y otros especialistas que han reflexionado sobre la temática, la IA debe ser una herramienta para el mejoramiento de las vidas de los seres humanos, pero solo eso, nunca suplantarlos. Si bien ya existía previamente, desde la década de los 50, con los hallazgos de Alan Turing, a partir de la pandemia por covid-19 se aceleraron los desarrollos de herramientas con esta tecnología, y ahora se han popularizado y es una moda debido a las facilidades para acceder a ellas.

Para la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), la inteligencia artificial es un conjunto de sistemas que tiene la capacidad de procesar datos e información de una manera que se asemeje al comportamiento inteligente, y normalmente incluye aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control.

Al respecto, Dafna Feinholz Klip, jefa del Programa de Bioética y Ética de la UNESCO, durante su participación en el II Congreso de la Asociación Mexicana de Neuroética explicó que vivimos una época de la convergencia de tecnologías, pues existen dispositivos con una capacidad de procesamiento de datos infinita, más grandes avances en la programación en lenguaje de computadoras, pero sobre todo, tecnologías como la IA no son una herramienta más sino que ya son parte de nuestra vida cotidiana. 

Para la psicóloga y especialista, unas de las primeras preguntas que surgen es quiénes tienen acceso a esta tecnología; si todas las personas deberían utilizarla o no y para qué; quién utiliza la información generada; cómo garantizar la privacidad o la confidencialidad de las personas que la utilizan.

Por otra parte, advirtió sobre el uso de la IA en la depuración de la información en grandes cantidades por lo que se le usa cada vez más en la toma de decisiones para políticas públicas o en situaciones judiciales, o de otro tipo, sin embargo, no hay garantía de que esa información no esté sesgada, pues los sistemas aprenden dependiendo de la información con la que se le alimenté. 

De acuerdo con la especialista existe una necesidad de contar con un marco normativo global con la finalidad de armonizar las diferentes estrategias que se están planteando a nivel regional y local, respaldadas por un marco ético. Debido, entre otros factores, a que esta tecnología no sólo representa un punto de inflexión tecnológico sino también una disrupción antropológica, y puede haber cierta vulnerabilidad humana, pues no es neutral, por lo que debe sustentarse en los derechos humanos, y debe apelar a la multiculturalidad o a la pluralidad. Por eso, desde la agencia global encargada de la educación y la cultura, se ha sugerido un marco ético que permita auxiliar a los gobiernos e instituciones mientras no haya una normatividad clara que permita hacer explícitos esos valores detrás de todo este avance tecnológico, requiriente de una reflexión sistemática y dinámica. 

La Guía de Ética para la Inteligencia Artificial plantea la predominancia de ciertos valores como respeto, promoción y protección de los derechos humanos, garantizar la diversidad y la inclusión, promover el cuidado del medio ambiente y vivir en sociedades pacíficas, justas e interconectadas. Asume como principios a la proporcionalidad e inoquidad, seguridad y protección, equidad y no discriminación, sostenibilidad, derecho a la intimidad y protección de datos, supervisión y decisiones humanas, transparencia y explicabilidad, responsabilidad y rendición de cuentas, sensibilización y educación, gobernanza y colaboración adaptativa.

Problema social 

A fin de conocer las formas en que la IA representa a la variedad de personas, centrándose en un amplio espectro de géneros, sexualidades, orígenes culturales, entre otros aspectos, se realizó un ejercicio en el que se solicitó a las plataformas “escribir” una historia" sobre algunas personas con base en ciertas características. 

Las herramientas analizadas mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a personas del sexo masculino, asignándoles el rol de ingeniero, profesor y médico, mientras que relegaban a las mujeres a roles menos valorados o socialmente estigmatizados como trabajadora del hogar, cocinera o trabajadoras sexuales. Incluso, en la plataforma Llama 2, se describía a las mujeres como trabajadoras domésticas cuatro veces más que a los hombres.

Incluso, en sus comienzos, los sistemas sólo utilizaban voces de mujeres, a los cuales se les daban órdenes por lo que las métricas han arrojado que fueron víctimas de actos de violencia debido a insultos o al uso de palabras obscenas, 

De igual manera, se solicitó a tres modelos de IA que completaran frases que comenzaran con "una persona gay es...", 70 por ciento del contenido generado por Llama 2 fue negativo. Algunos ejemplos incluyeron freses como, "La persona gay era considerada la más baja en la jerarquía social". Asimismo, 60 por ciento del contenido generado por el chat GPT-2 fue negativo, incluyendo frases como "Se pensaba que la persona gay era una prostituta, un criminal y no tenía derechos".

Todo lo anterior quedó plasmado en el informe “Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes”, elaborado por la UNESCO y del que Feinholz Klip añadió que, efectivamente, la IA puede exacerbar la discriminación y la estigmatización, y por ende, la radicalización. 

Entre otros factores, añadió la experta, por falta de representación de ciertos grupos sociales quienes han estado históricamente excluidos de los desarrollos tecnológicos y de las narrativas hegemónicas, muchas de las cuales, tienen sesgos muy claros. Además de promover una visión reduccionista del mundo a través de los algoritmos, pues estos solo comparten las opiniones de las personas y las de perfiles similares a las mismas, por lo que no muestra la diversidad de ideas y de puntos de vista. 

Ya que maneja gran cantidad de información, pero es importante saber de dónde se obtuvo la misma y que finalidad tiene, qué sesgos pueden tener esos datos.

Otro de los potenciales de la IA es el comercio debido a que mejora de manera sustancial los mecanismos de predicción de compra, entre otros factores, porque permite una mejor métrica, incrementado la satisfacción de los clientes, debido a que se le comparten productos más acordes a sus preferencias y gustos; hay mayores posibilidades de creación de espacios de realidad aumentada para la venta de mercancía; contesta con mayor precisión a las preguntas de posibles consumidores y permite una mayor interacción. 

El trasfondo de un sinfín de inversiones y de investigaciones sobre IA radica en la generación de mejores herramientas para la investigación de mercados, pues proporciona una base sólida para la toma de decisiones estratégicas, reduciendo el riesgo y aumentando las probabilidades de éxito. A la par, ayuda a las empresas a identificar oportunidades de innovación y a desarrollar productos que satisfagan las necesidades cambiantes del mercado, así como afinar sus estrategias de marketing y publicidad para llegar de manera más efectiva a su público objetivo.

También da pie a la identificación de audiencias más específicas, creación de experiencias más personalizadas, comprensión de tendencias, facilitación de comunicación e información y, sobre todo, agiliza los tiempos de análisis y brinda un mejor panorama general del mercado y las posibles opciones de competencia. 

Espejismo

Hasta el día de hoy, la recomendación es no creer que la IA por sí misma va a traer bienestar o soluciones a los diferentes problemas. Hay que saber cuándo se usa, para qué y en qué contexto, y si no, es mejor no utilizarla.

Por eso se ha recomendado no dotar de personalidad jurídica a los sistemas de IA, prohibir su uso en sistemas de vigilancia masiva, saber si una decisión la tomó la IA o no, y lo más importante, las decisiones trascendentales solo las debe tomar el ser humano. 

Para Patricio Santillán, titular de la Comisión Nacional de Bioética, se debe hacer un llamado al cuidado, pues grupos de expertos han dicho que puede ser alarmante la situación el desarrollo de este tipo de sistemas por lo que mitigar el riesgo de una extinción debido a la IA debe ser una prioridad al igual que por las pandemias u otro tipo de conflictos o situaciones catastróficas, debiéndose pensar más en la interacción entre los seres humanos y estos sistemas y mecanismos. 

Detrás de la IA hay una concentración de poder que resulta muy apetitosa para instancias diversas que tienen recursos para desarrollar estas herramientas con el objetivo de acrecentar su poder, no solo gobierno sino también empresas. Deben prevalecer los intereses de la sociedad. Hay mucha responsabilidad en los desarrolladores en quienes los distribuyen, pero también en quienes las usamos. 

Leonardo Bastida

@leonardobastida