INTELIGENCIA ARTIFICIAL

Europa: Claves para entender la regulación de la Inteligencia Artificial

La regulación de la inteligencia artificial tiene por objetivo proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo

Europa: ¿En qué consiste la regulación de la IA?
Europa: ¿En qué consiste la regulación de la IA?Créditos: Istockphoto
Escrito en MUNDO el

Con el fin de reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia al uso de la inteligencia artificial (IA), Europa adoptará una normativa para el uso y regulación de este tipo de tecnología, la cual, se coloca al centro de un nuevo modelo de gobernanza y cuyo impacto se ve reflejado en todos los sectores de la población. 

ÚNETE A NUESTRO CANAL DE WHATSAPP. EL PODER DE LA INFORMACIÓN EN LA PALMA DE TU MANO

Sobre la nueva normativa europea en materia de inteligencia artificial, el Parlamento Europeo informó que esta tiene por objetivo: “proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa como líder en el sector”.

Específicamente, el reglamento 2024/1689, aprobado por el Parlamento Europeo el 13 de junio de 2024, entrará en vigor el próximo 1 de agosto de 2024, pero será aplicable a partir del 2 de agosto del 2026. En él, se establecen normas armonizadas en todos los miembros de la Unión Europea (UE) en materia de inteligencia artificial.

Además, se garantiza la libre circulación transfronteriza de mercancías y servicios basados en inteligencia artificial. Cabe destacar que el reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

TE PUEDE INTERESAR: ¿Por qué la inteligencia artificial puede sabotear tus datos personales?

TE PUEDE INTERESAR: Apple llenará de Inteligencia Artificial ecosistema y mete ChatGPT a Siri

¿Quiénes están sujetos a esta normativa de IA?

  • Los proveedores de sistemas de IA utilizados en la Unión Europea
  • Los responsables del despliegue de estos sistemas
  • Los importadores y distribuidores de estos sistemas
  • Los fabricantes de estos sistemas
  • Las personas afectadas que éste dentro de la UE

Excepciones a la aplicación de normativa de IA

  • El reglamento no se aplicará a los ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión Europea.
  • No se aplicará a las autoridades públicas de terceros países, ni a las organizaciones internacionales que entren dentro del ámbito de aplicación.

¿Qué prohíbe la normativa de IA?

Aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

  • El reconocimiento de emociones en el lugar de trabajo y en las escuelas.
  • Los sistemas de puntuación ciudadana.
  • La actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características).
  • La IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Uso de la IA por las fuerzas de seguridad

En el caso del uso de la inteligencia artificial por las fuerzas de seguridad queda prohibido salvo en situaciones muy concretas y bien definidas, tales como:

  • El uso de la identificación biométrica para localizar a una persona desaparecida o prevenir un atentado terrorista. En estos casos el uso queda limitado a un período y lugar específicos, pero se requiere autorización judicial o administrativa previa.
  • Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

Uso de la IA de alto riesgo

El reglamento Europeo contempla regulaciones específicas para el uso de la inteligencia artificial de alto riesgo, el cual se define así porque pueden resultar perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.

Los ejemplos más claros del uso de alto riesgo de la IA es el que se les da en infraestructuras críticas de un país, tales como:

  • La educación y la formación profesional
  • El empleo
  • Los servicios públicos y privados esenciales (sanidad o banca)
  • Sistemas de las fuerzas de seguridad
  • Migración y gestión aduanera
  • Justicia
  • Procesos democráticos

Criterio para validar el uso de IA de alto riesgo

  • Evaluar y reducir los riesgos
  • Mantener registros de uso
  • Ser transparentes y precisos
  • Contar con supervisión humana

Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.

Las imágenes, contenidos de audio o de vídeo artificial o manipulado deberán etiquetarse claramente como tales.

SÍGUENOS EN EL SHOWCASE DE GOOGLE NEWS

VGB