INTELIGENCIA ARTIFICIAL

Los peligros ocultos de la inteligencia artificial | Cuarta parte

Las decisiones de la IA provienen en muchos casos de procesos incomprensibles escondidos en cajas negras. | Leonardo Martínez

Créditos: #OpiniónLSR
Escrito en OPINIÓN el

Toca el turno a la aplicación de la inteligencia artificial (IA) a la educación, lo cual se puede dar en una multitud de ámbitos: en los procesos de admisión de estudiantes y maestros, en la recomendación o asignación de áreas de estudio, en el diseño de planes curriculares, en la elaboración de cursos y de los materiales que éstos requieren, en la evaluación de exámenes y procesos de aprendizaje y en el seguimiento y evaluación del desempeño de los egresados en el ámbito profesional, por mencionar algunas de las aplicaciones posibles. En todos los casos los beneficios potenciales son inmensos, pero repasemos algunos de los riesgos que hay que tomar en cuenta.

En un primer grupo están los riesgos de los que ya hemos hablado cuando se trata de usar la IA en algún ámbito: los sesgos algorítmicos, la violación de la privacidad y la seguridad de los datos y una eventual profundización de brechas digitales.

Pero cuando se trata de educación en un sentido amplio, hay riesgos específicos que hay que tomar en cuenta:

Deshumanización de los procesos de aprendizaje. La IA puede ser una herramienta valiosa para mejorar la eficiencia y personalizar la enseñanza, pero no puede reemplazar completamente la conexión humana y, al menos hasta ahora, es difícil que tenga una comprensión profunda de las necesidades individuales de los estudiantes. La educación no consiste únicamente en adquirir conocimientos, se trata también de enseñar a desarrollar y usar habilidades interpersonales, y de transmitir los valores éticos y culturales de cada sociedad. La excesiva dependencia de la IA podría llevar a un enfoque excesivamente eficientista centrado en resultados, descuidando la importancia de las emociones y de la empatía en las relaciones humanas.

No alineación con valores fundamentales. Los caminos que toma la IA son frecuentemente opacos y misteriosos. Los mismos creadores de la IA reconocen que las decisiones de la IA provienen en muchos casos de procesos incomprensibles escondidos en cajas negras. Esto plantea un problema si hay que explicar un resultado cuando no se conoce el proceso cognitivo que tuvo lugar para llegar a ello. Si el resultado resuelve un problema, pero va en contra de valores fundamentales de la sociedad, cómo se le puede explicar o justificar si no se conoce su lógica argumentativa.

Dependencia tecnológica.  Si los estudiantes dependen en exceso de la IA en sus procesos de aprendizaje, podrían perder la oportunidad de desarrollar habilidades necesarias como el pensamiento crítico, el planteamiento y resolución de problemas y la creatividad. Además, si la tecnología falla o no está disponible, los estudiantes podrían encontrarse desorientados y mal preparados para aprender de manera autónoma.

Si ahora pasamos a la aplicación de la inteligencia artificial generativa (IAG), que en pocas palabras se refiere a sistemas que pueden generar contenido como textos, imágenes y videos de manera autónoma, la lista de riesgos asociados se extiende más:

Contenido generado de baja calidad. Los sistemas de IAG pueden generar contenidos de manera ultrarrápida y eficiente, pero la calidad no está garantizada. Existe el riesgo de que se produzcan materiales educativos inexactos, erróneos, irrelevantes o de baja calidad, lo que podría perjudicar el proceso de aprendizaje y llevar a los estudiantes y a la sociedad a estadios de desinformación y de generación de conflictos indeseables.

Plagio y falta de originalidad. Los estudiantes pueden utilizar sistemas de IAG para generar trabajos y materiales creativos sin mucho esfuerzo y sin la obligación ni de verificar quién o quiénes son las fuentes originales, ni de citar correctamente las mismas. Esto plantea un riesgo significativo de plagio y falta de originalidad en los trabajos académico y creativos, lo que socava los principios éticos de la educación.

Dificultades en la detección de fraudes. La detección del fraude académico se vuelve más complicada cuando los estudiantes utilizan sistemas de IAG para generar trabajos. Los profesores y las instituciones educativas enfrentan el reto de invertir en herramientas de detección de plagio más avanzadas y en métodos de evaluación que fomenten la originalidad y la comprensión del contenido.

Cámaras de eco en la enseñanza. Si la IAG se utiliza para personalizar los procesos de aprendizaje, existe el riesgo de que los estudiantes se vean atrapados en una cámara de eco de contenidos generada por algoritmos. De manera similar a como esto sucede con las cámaras de eco en las redes sociales, este fenómeno limita la exposición de los estudiantes a diferentes hechos y datos, así como a diferentes perspectivas y enfoques de aprendizaje, lo que reduce su conocimiento contextual, merma su capacidad para pensar críticamente y reduce sus facultades para adaptarse a situaciones nuevas y diversas. El resultado puede incluso favorecer las condiciones que propician la intolerancia y la polarización.

Esta apretada lista de los peligros que enfrentamos ante la aplicación de la inteligencia artificial a la educación, es suficiente para generarnos algunas inquietudes y algo de preocupación. Por ello hay que seguir insistiendo en la aplicación de criterios éticos en la concepción y aplicación de los sistemas de inteligencia artificial.

 

Leonardo Martínez F.

@lmf_Aequum