Conforme avanzan las tecnologías de inteligencia artificial como ChatGPT, cada vez más países buscan regular su uso y una de las primeras regiones en lograrlo es la Unión Europea. Después de una sesión de más de 36 horas, la presidencia del Consejo de la Unión Europea y los negociadores del Parlamento Europeo alcanzaron el 8 de diciembre un acuerdo provisional sobre la ley de inteligencia artificial (IA) con el fin de regular la tecnología y así garantizar que sea segura y que se respeten los derechos fundamentales.
“La Ley de IA es una iniciativa legislativa emblemática con el potencial de fomentar el desarrollo y la adopción de IA segura y confiable en todo el mercado único de la UE por parte de actores públicos y privados. La idea principal es regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque basado en el riesgo: cuanto mayor es el riesgo, más estrictas son las reglas”, señaló el Consejo en un comunicado.
ÚNETE A NUESTRO CANAL DE WHATSAPP. EL PODER DE LA INFORMACIÓN EN LA PALMA DE TU MANO
Te podría interesar
Como parte de la implementación de la ley, se creará una oficina de IA dentro de la Comisión que se encargará de supervisar los modelos de inteligencia artificial más avanzados y para hacer cumplir las normas en todos los Estados miembro. Si bien se espera que el acuerdo provisional se aplique dos años después de su entrada en vigor, primero será necesaria su aprobación por parte de integrantes de la Unión Europea.
En ese sentido, te presentamos cuatro preguntas para entender cómo funcionará la ley de inteligencia artificial en la Unión Europea:
¿A quiénes aplica?
El acuerdo provisional de la ley de inteligencia artificial no se aplicará a las áreas que estén fuera del alcance de la legislación de la Unión Europea. “No debería afectar, en ningún caso, afectar las competencias de los Estados miembros en materia de seguridad nacional o cualquier entidad a la que se le hayan confiado tareas en esta área”. Del mismo modo, no se aplicará a los sistemas que se utilicen con fines militares o de defensa ni a los sistemas que usen para la investigación o la innovación.
¿Cómo funcionará la clasificación por riesgos de la inteligencia artificial?
La ley incluye una serie de clasificaciones de alto riesgo para evitar que esta tecnología viole derechos fundamentales. En ese sentido, los sistemas de IA que estén catalogados bajo riesgo limitado se enfrentarán a obligaciones de transparencia bajos, un ejemplo de esto son los contenidos creados con inteligencia artificial.
En el caso de los sistemas clasificados como alto riesgo, estarán sujetos a varios requisitos y obligaciones para poder entrar al mercado de la Unión Europea. Un ejemplo de esto es la calidad de los datos o lo relacionado coon la documentación tecnica que debe elaborar una Pyme para demostrar que sus sistemas cumplen con todos los requisitos que establece la ley.
En el caso de los sistemas considerados como inaceptables, estos estarán prohibidos por el bloque. Algunos sistemas que no podrán usarse son para el reconocimiento de emociones en escuelas y trabajos, la manipulación cognitiva conductual, la eliminación no selectiva de imágenes faciales, la categorización biométrica para inferir datos como la orientación sexual o la religión, entre otros.
¿Se podrán utilizar sistemas de inteligencia artificial con fines policiales?
De acuerdo con la ley, en el caso del sistema de identificación biométrica remota en tiempo real dentro de los espacios públicos solo se podrá hacer uso de esta herramienta a menos de que sea estrictamente necesario. Además, estas excepciones estarán limitadas a los casos de víctimas de ciertos delitos, prevención de amenazas genuinas, presentes o previsibles como ataques terroristas y para la búsqueda de personas que sean sospechosas de delitos más grandes.
¿Cuáles serán las multas para quienes no cumplan?
De acuerdo con la comisión, las multas por violar la ley de inteligencia artificial estarán basadas ya sea en un porcentaje de la facturación global anual de la compañía infractora en el año financiero anterior o una cantidad previamente establecida, se elegirá la que sea mayor.
- Por violaciones de las aplicaciones de IA prohibidas la multa sería de 35 millones de euros o el 7 por ciento de la facturación global anual
- Por violaciones de las obligaciones de la ley de IA la multa sería de 15 millones de euros o el 3 por ciento
- Por el suministro de información incorrecta la multa sería de 7.5 millones de euros o el 1.5 por ciento.
- En el caso de empresas pequeñas o Pymes, la misma ley de inteligencia artificial establece límites más proporcionados. Además, una persona física o jurídica podrá presentar una queja ante la autoridad de vigilancia en la Unión Europea.