INTELIGENCIA ARTIFICIAL

¿Regular la Inteligencia Artificial?

El desarrollo de sistemas IA no es nuevo, tiene casi medio siglo. | Arturo Robles

Escrito en OPINIÓN el

Confieso que, como muchos, me rendí a la tentación de generar contenidos utilizando la Inteligencia Artificial (IA).

Pronto, me interné en el Chat GPT y solicité un artículo sobre “los riesgos de la Inteligencia Artificial y lo que debe hacer el Instituto Federal de Telecomunicaciones de México”. Después de tres intentos, la herramienta me presentó la propuesta más convincente:

“La Inteligencia Artificial ha demostrado ser una de las tecnologías más disruptivas y prometedoras de nuestra era. Su creciente aplicación en diversos sectores de la sociedad ha generado un impacto significativo en la vida diaria de las personas, mejorando la eficiencia y la comodidad. Sin embargo, este rápido avance también ha llevado a la aparición de riesgos y desafíos que deben ser abordados de manera urgente y responsable.

En este artículo, analizaremos algunos de los riesgos asociados con la IA y el papel que el Instituto Federal de Telecomunicaciones de México (IFT) puede desempeñar para garantizar su uso seguro y ético en el país…”

A simple vista, el sistema parece bastante eficaz, salvo por el estilo y ajustes menores en la redacción, el texto cumplió.

Pongo como ejemplo el Chat GPT porque es uno de los sistemas más populares basados en Inteligencia Artificial y su masificación ha generado gran interés entre la población por la forma, casi inmediata, de procesar información y generar contenidos. Sin embargo, debemos ser conscientes que no es un sistema infalible.

De entrada, Chat GPT advierte que el contenido que genera podría tener algunas imprecisiones y que la información no está del todo actualizada después del 2021, a menos que se pague por ello.  

También debemos ser conscientes de que este sistema arroja resultados a partir de los datos que encuentra en la nube, datos que tienen un sesgo “original”, derivado del comportamiento humano y que se transmite involuntariamente al generarlos y producirlos; además, las instrucciones o insumos que recibe pueden contener otros sesgos y errores.

El desarrollo de sistemas IA no es nuevo y tiene casi medio siglo. Fue hasta los últimos años que acaparó los reflectores, a partir de la creación de aplicaciones de fácil acceso (como el Chat GPT) cuyos usuarios crecen exponencialmente cada día. 

Por ello, es pertinente reflexionar sobre los posibles “vicios” que suponen estos sistemas y sus consecuencias ¿Qué podría pasar si además de los sesgos ya identificados, los sistemas basados en IA toman decisiones autónomas? ¿Cuáles serían los riesgos en aplicaciones que manejen información sensible o tomen decisiones más complejas como los vehículos autónomos? ¿Cuál es la responsabilidad de los usuarios en el “correcto” funcionamiento de la IA?

No es mi propósito cuestionar el evidente y demostrado potencial que tienen estos sistemas para facilitar y mejorar nuestra calidad de vida, aumentar la productividad, potenciar el desarrollo en el sector salud, educativo, agrícola y muchos otros. Lo que planteo es la urgente necesidad de analizar cuidadosamente la adopción de marcos y normas, en sus distintas variantes y tramos de responsabilidad. ¿Para qué y cómo regular y vigilar la Inteligencia Artificial? ¿Cuáles son las pretensiones de hacerlo?

A pesar de los diversos estudios, literatura y reflexiones, hasta la fecha no existe una definición universal sobre qué es la Inteligencia Artificial y hay serias divergencias en torno a sus alcances y propósitos.

Ahora mismo, concurre un intenso debate sobre si la IA se limita al logro de objetivos previamente definidos por humanos o si puede perseguir objetivos distintos tomando en cuenta las preferencias y los valores de la humanidad (lo que podría derivar en decisiones automatizadas imprevistas que escaparían al control humano con efectos no deseados que pudieran vulnerar garantías individuales). Esta discusión no es cosa menor si se desea trabajar sobre un marco de gobernanza y sus alcances.

Por ello, se vuelve imprescindible conocer los alcances y limitaciones de la IA y debatirlos a profundidad, en especial si tomamos en cuenta su acelerada adopción. En los últimos 5 años, el 20% de las empresas en el mundo habían adoptado estos sistemas en 2017, mientras que en 2022 el porcentaje aumentó al 50%, según la consultora McKinsey.

Merece también atención que incrementaron los incidentes o efectos no deseados por el uso de estos sistemas. Datos del Repositorio de Controversias e Incidentes de IA, Algoritmos y Automatización (por sus siglas en inglés AIAAIC), revelan que el número de incidentes fue 26 veces mayor en 2021 respecto a 2012. Uno de los casos más conocidos fue la elaboración y difusión de un video falso sobre la rendición del presidente ucraniano, Volodymyr Zelenskyy.

Para controlar su avance y contener los incidentes, se han presentado distintas propuestas encaminadas a normar el uso de la Inteligencia Artificial. Recientemente, el Parlamento Europeo aprobó el primer proyecto en el mundo para regularla y, de ser aceptado por los 27 países miembros de la Comunidad Europea, podría entrar en vigor en 2026.

Este proyecto propone que los sistemas de IA que se utilizan en distintas aplicaciones se analicen y clasifiquen según el riesgo para los usuarios o terceros. Además, prohíbe expresamente la manipulación cognitiva del comportamiento de personas o grupos vulnerables como los niños; clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales; así como los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial (a menos que se trate de la comisión de un delito grave).

En México, apenas se presentó en marzo pasado una iniciativa para expedir la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica que contempla la creación del Consejo Mexicano de Ética, orientado a la emisión de normas oficiales, y una Red Nacional de Estadísticas y uso de IA y Robótica.

Más allá de estos marcos regulatorios y lineamientos, aún en ciernes, persisten las dudas en torno a  la recopilación, almacenamiento y uso de los datos con los que se nutren un gran número de los sistemas basados en Inteligencia Artificial; las implicaciones que pueda tener su manejo en la privacidad y seguridad de los usuarios; así como la incertidumbre en asuntos relacionados con la propiedad intelectual, derechos de autor y derechos laborales (desplazamiento o reemplazo de puestos de trabajo).

También permean las preocupaciones asociadas a la ética, sesgos y discriminación de los algoritmos (conjunto de instrucciones depositadas en las máquinas, a partir de las cuales toma decisiones de manera automatizada) así como el grado de autonomía que requieren los algoritmos para funcionar.

El uso indebido de estos sistemas podría ponernos en el filo de acrecentar las desigualdades, la discriminación, la violación a derechos humanos, incluso influir y persuadir en la toma de decisiones políticas. No olvidemos los casos en los que se diseminaron contenidos para tratar de influir en asuntos políticos, incluso en las preferencias de los electores.

Lo anterior genera preocupación en todo el mundo. De ahí que, diversos organismos internacionales especializados ya analizan y debaten las implicaciones de estos sistemas como es el caso del Grupo de Gobernanza de la Inteligencia Artificial (AIGO) de la Organización para la Cooperación y el Desarrollo Económico (OCDE), en el que México ocupa la Vicepresidencia a través de quien escribe estas líneas. 

Mientras las deliberaciones transcurren… surgen nuevos sistemas, como la IA generativa, que muestran cada vez mayor potencial para transformar las principales actividades humanas en el futuro cercano, especialmente aquellas que pueden funcionar como agentes autónomos.

Por eso, y para no perder oportunidades de crecimiento, es preciso que en el país iniciemos una amplia y seria discusión sobre el tema para definir cuáles son nuestros objetivos ¿Queremos participar en el desarrollo de la IA? ¿Queremos maximizar sus usos y aprovechar sus avances y beneficios para impulsar la economía? ¿Queremos poner énfasis en los riesgos asociados al uso de esta tecnología para atajar y minimizar los efectos negativos?

Solo hasta que definamos el objetivo, es pertinente avanzar hacia la regulación en materia de Inteligencia Artificial ¿Quiénes deben tutelar su “correcto” funcionamiento? ¿Cuáles serán los tramos de responsabilidad ante cualquier incidente?

Soy de la idea de que, antes de regular o emitir cualquier política pública, debemos contar con una visión multipartita del rumbo que como país queremos seguir y sumar esfuerzos para construir un ecosistema de IA sostenible en el largo plazo, más allá de proyectos aislados o temporales.

Es fundamental invertir en investigación y desarrollo de IA para impulsar la innovación y el avance tecnológico; generar bases de datos de calidad, seguras, precisas y confiables que sean relevantes para el dominio específico en el que se aplicará la IA; requerimos infraestructura adecuada y acceso a potentes sistemas de procesamiento, almacenamiento de datos; así como profesionales capacitados en el campo de la IA.

La construcción de un ecosistema de IA exitoso también demanda la colaboración entre diferentes actores: centros de investigación y desarrollo, empresas, académicos, sociedad civil, instancias gubernamentales y, desde luego, reguladores especializados en el sector de las tecnologías y sistemas digitales como el Instituto Federal de Telecomunicaciones (IFT), a fin de intercambiar conocimientos, información y resolver desafíos como los éticos y sociales que plantea la Inteligencia Artificial.

Solo mediante el diálogo abierto y colaborativo podremos enfrentar los desafíos actuales y futuros de la IA, asegurando que se utilice de manera responsable y se maximicen sus beneficios para la sociedad en general.

A la fecha, el balance entre los beneficios y riesgos de emplear es indudablemente positivo, pero la confianza y seguridad de la IA están a prueba.