Con el fin de reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia al uso de la inteligencia artificial (IA), Europa adoptará una normativa para el uso y regulación de este tipo de tecnología, la cual, se coloca al centro de un nuevo modelo de gobernanza y cuyo impacto se ve reflejado en todos los sectores de la población.
ÚNETE A NUESTRO CANAL DE WHATSAPP. EL PODER DE LA INFORMACIÓN EN LA PALMA DE TU MANO
Sobre la nueva normativa europea en materia de inteligencia artificial, el Parlamento Europeo informó que esta tiene por objetivo: “proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa como líder en el sector”.
Te podría interesar
Específicamente, el reglamento 2024/1689, aprobado por el Parlamento Europeo el 13 de junio de 2024, entrará en vigor el próximo 1 de agosto de 2024, pero será aplicable a partir del 2 de agosto del 2026. En él, se establecen normas armonizadas en todos los miembros de la Unión Europea (UE) en materia de inteligencia artificial.
Además, se garantiza la libre circulación transfronteriza de mercancías y servicios basados en inteligencia artificial. Cabe destacar que el reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
Te podría interesar
TE PUEDE INTERESAR: ¿Por qué la inteligencia artificial puede sabotear tus datos personales?
TE PUEDE INTERESAR: Apple llenará de Inteligencia Artificial ecosistema y mete ChatGPT a Siri
¿Quiénes están sujetos a esta normativa de IA?
- Los proveedores de sistemas de IA utilizados en la Unión Europea
- Los responsables del despliegue de estos sistemas
- Los importadores y distribuidores de estos sistemas
- Los fabricantes de estos sistemas
- Las personas afectadas que éste dentro de la UE
Excepciones a la aplicación de normativa de IA
- El reglamento no se aplicará a los ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión Europea.
- No se aplicará a las autoridades públicas de terceros países, ni a las organizaciones internacionales que entren dentro del ámbito de aplicación.
¿Qué prohíbe la normativa de IA?
Aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
- El reconocimiento de emociones en el lugar de trabajo y en las escuelas.
- Los sistemas de puntuación ciudadana.
- La actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características).
- La IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Uso de la IA por las fuerzas de seguridad
En el caso del uso de la inteligencia artificial por las fuerzas de seguridad queda prohibido salvo en situaciones muy concretas y bien definidas, tales como:
- El uso de la identificación biométrica para localizar a una persona desaparecida o prevenir un atentado terrorista. En estos casos el uso queda limitado a un período y lugar específicos, pero se requiere autorización judicial o administrativa previa.
- Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.
Uso de la IA de alto riesgo
El reglamento Europeo contempla regulaciones específicas para el uso de la inteligencia artificial de alto riesgo, el cual se define así porque pueden resultar perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.
Los ejemplos más claros del uso de alto riesgo de la IA es el que se les da en infraestructuras críticas de un país, tales como:
- La educación y la formación profesional
- El empleo
- Los servicios públicos y privados esenciales (sanidad o banca)
- Sistemas de las fuerzas de seguridad
- Migración y gestión aduanera
- Justicia
- Procesos democráticos
Criterio para validar el uso de IA de alto riesgo
- Evaluar y reducir los riesgos
- Mantener registros de uso
- Ser transparentes y precisos
- Contar con supervisión humana
Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.
Las imágenes, contenidos de audio o de vídeo artificial o manipulado deberán etiquetarse claramente como tales.
SÍGUENOS EN EL SHOWCASE DE GOOGLE NEWS
VGB