INTELIGENCIA ARTIFICIAL

Riesgos y ética en el uso de la inteligencia artificial

Sin duda la inteligencia artificial puede tener un gran impacto en diversas áreas como la seguridad, movilidad, educación y sobre todo en la salud, pero también puede implicar importantes riesgos. | Agustín Castilla

Escrito en OPINIÓN el

El desarrollo tecnológico y en particular de la inteligencia artificial, cuya historia se remonta a poco más de siete décadas cuando el matemático y filósofo británico Alan Turing escribió un artículo en el que se preguntaba si las máquinas podrían desarrollar la capacidad de pensar y, en un encuentro científico en la Universidad de Dartmouth se predijo que en un lapso de 20 años alcanzarían la capacidad de realizar cualquier tarea que pudieran hacer los seres humanos, ha tenido un avance vertiginoso en apenas unos cuantos años. 

Aunque no hay una definición uniforme, se puede entender a la inteligencia artificial como la capacidad de los sistemas informáticos para imitar, mediante algoritmos, las funciones cognitivas de los seres humanos para identificar, utilizar, interpretar y aprender de los datos a partir de los cuales se realizan tareas, se toman decisiones y se resuelven problemas complejos. Actualmente a través de la IA se puede procesar la información de miles de documentos en tan solo unos segundos, automatizar procesos, e incidir en la reducción significativa de costos y errores. Sin duda la inteligencia artificial puede tener un gran impacto en diversas áreas como la seguridad, movilidad, educación y sobre todo en la salud al producir diagnósticos precisos en mucho menor tiempo, tratamientos personalizados, potenciar la formación médica y acelerar la investigación –en China se inauguró un hospital inteligente sin médicos ni enfermeras, los doctores son avatares digitales capaces de diagnosticar enfermedades con más del 90% de precisión y atender alrededor de 10 mil pacientes en solo unos días, lo que tomaría meses para personal humano, pero también puede implicar importantes riesgos

Geoffrey Hinton, Premio Nobel de Física 2024 y quien también recibió el premio Turing por su trabajo de investigación sobre aprendizaje profundo, ha advertido sobre las posibles consecuencias de la inteligencia artificial si sus objetivos no se alinean con los valores e interés humanos, pues de lo contrario podría rebasar las capacidades humanas incluso poniendo en riesgo a nuestra misma especie, por ejemplo con la evolución de sistemas de armamento autónomos. También se ha llamado la atención sobre las noticias falsas o maliciosas (fake y deep news) que pueden atentar contra nuestra imagen e intimidad, dar lugar a fraudes y suplantación de personas, de los sesgos en la información a partir de bases de datos o algoritmos construidos por personas con su propia visión de las cosas y que pueden derivar en discriminación, exclusión y ampliación de las brechas digitales, o de la polarización social provocada por la filtración y manipulación de la información que se difunde en redes sociales en función de intereses o perfiles particulares que incluso pueden poner en riesgo a la democracia. 

Ante este complejo escenario, la UNESCO emitió una recomendación sobre la ética de la inteligencia artificial en la que se estableció la necesidad de la transparencia y debida comprensión del funcionamiento de los algoritmos y los datos con los que han sido entrenados, así como su posible impacto en la dignidad humana, sus derechos y libertades fundamentales, la democracia, igualdad de género, bienestar animal y medio ambiente. 

Entre los principios éticos que contempla esta recomendación se encuentran: la proporcionalidad en el método de IA que se utilice para lograr un objetivo legítimo determinado que no atente contra valores fundamentales como los derechos humanos; la prevención de daños no deseados y vulnerabilidad a los ataques para garantizar la seguridad y protección de los seres humanos y el medio ambiente; equidad y no discriminación; derecho a la intimidad y protección de datos; responsabilidad y rendición de cuentas con mecanismos de supervisión, auditoría y evaluación de impacto; sensibilidad y educación para que todos los miembros de la sociedad puedan adoptar decisiones informadas sobre la utilización de la IA y estén protegidos de influencias indebidas, y una que me parece fundamental, que el control y decisión de la inteligencia artificial siempre recaiga en seres humanos. La inteligencia artificial no es buena o mala por sí misma, depende del uso que se le dé, por lo que es indispensable establecer límites claros sin que por ello se inhiba su desarrollo y gran potencial para modificar positivamente muchos de los ámbitos de la actividad humana

 

Agustín Castilla

@agus_castilla