Después de participar en una extensa 'charlas de maratón', los negociadores de la Presidencia del Consejo y del Parlamento Europeo alcanzaron el sábado 9 de diciembre un acuerdo provisional sobre la propuesta de normas armonizadas que regulan artificial intelligence (AI) — el Artificial Intelligence Actuar.
El proyecto de reglamento tiene como objetivo garantizar la seguridad y el respeto de los derechos fundamentales y los valores de la UE de los sistemas de inteligencia artificial vendidos y utilizados en la UE.
El consejo dice que esta propuesta también tiene como objetivo estimular la inversión y la innovación en IA en Europa.
Promover el desarrollo y la adopción de una IA segura
La Ley de IA es una iniciativa legislativa que tiene como objetivo promover el desarrollo y la adopción de IA segura entre entidades públicas y privadas en el mercado único de la UE.
El enfoque "basado en el riesgo" propone regular la IA en función de su potencial de causar daño a la sociedad, con reglas más estrictas para escenarios de mayor riesgo.
Como primera propuesta legislativa de este tipo en el mundo, puede establecer un estándar global para la regulación de la IA en otras jurisdicciones, tal como lo ha hecho el GDPR, promoviendo así el enfoque europeo de la regulación tecnológica en el escenario mundial.
“¡Este es un logro histórico y un gran hito hacia el futuro! El acuerdo de hoy aborda efectivamente un desafío global en un entorno tecnológico en rápida evolución en un área clave para el futuro de nuestras sociedades y economías. Y en este esfuerzo, logramos mantener un equilibrio extremadamente delicado: impulsar la innovación y la adopción de artificial intelligence en toda Europa respetando plenamente los derechos fundamentales de nuestros ciudadanos”, afirma Carme Artigas, secretaria de Estado española de Digitalización y artificial intelligence.
Los principales elementos del acuerdo provisional
En comparación con la propuesta inicial de la Comisión, los principales elementos nuevos del acuerdo provisional pueden resumirserised de la siguiente manera:
- reglas sobre modelos de IA de propósito general de alto impacto que c
- una causa de riesgo sistémico en el futuro, así como en sistemas de IA de alto riesgo
- un sistema revisado de gobernanza con algunos poderes de aplicación a nivel de la UE
- Ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias.
- una mejor protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en uso un sistema de IA.
Distinguir la IA de la más simple software
Garantizar criterios claros para distinguir la IA de otras más simples. software sistemas, el acuerdo alinea la definición de un sistema de IA con el enfoque propuesto por la OCDE.
También enfatiza que el reglamento no se aplica a áreas fuera del alcance de la legislación de la UE o de las competencias de los Estados miembros en materia de seguridad o defensa nacional.
Además, la Ley de IA no se aplica a los sistemas de IA utilizados exclusivamente con fines militares, de defensa o no profesionales.
Clasificación de sistemas de IA de alto riesgo y prácticas prohibidas
El acuerdo provisional introduce un sistema de clasificación para los sistemas de IA en función de su nivel de riesgo.
Los sistemas de IA de alto riesgo, así como los modelos de IA de uso general de alto impacto que pueden causar riesgos sistémicos en el futuro, estarán sujetos a requisitos y obligaciones más estrictos.
Por otro lado, los sistemas de IA que presenten un riesgo limitado tendrán obligaciones de transparencia más ligeras.
El acuerdo también prohíbe ciertas prácticas de IA, como la manipulación cognitivo-conductual, el raspado no dirigido de imágenes faciales, el reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas, la puntuación social, la categorización biométrica y algunos casos de vigilancia policial predictiva para individuos.
Excepciones para las autoridades encargadas de hacer cumplir la ley
Teniendo en cuenta las particularidades de las autoridades encargadas de hacer cumplir la ley y la necesidad de preservar su capacidad de utilizar la IA en su trabajo vital, se acordaron varios cambios en la propuesta de la Comisión relacionados con el uso de sistemas de IA con fines policiales.
Al tiempo que garantizan salvaguardias adecuadas, estas disposiciones permiten el despliegue de herramientas de inteligencia artificial de alto riesgo por parte de los organismos encargados de hacer cumplir la ley en situaciones urgentes.
Sin embargo, se introducen mecanismos para proteger los derechos fundamentales contra un posible uso indebido de los sistemas de IA.
El uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público también está sujeto a estrictas salvaguardias y se limita a fines específicos de aplicación de la ley.
Sistemas de IA de uso general y modelos básicos
Según el Consejo Europeo, se han añadido nuevas disposiciones para situaciones en las que los sistemas de IA pueden utilizarse para muchos fines diferentes (IA de uso general) y en las que la tecnología de IA de propósito general se integra posteriormente en otro sistema de alto riesgo.
El acuerdo provisional también aborda los casos específicos de los sistemas de IA de propósito general (GPAI).
Los modelos básicos, capaces de realizar una amplia gama de tareas (como generar vídeo, texto, imágenes, conversar en lenguaje lateral, informática o generar código informático), deben cumplir con requisitos de obligaciones de transparencia antes de ingresar al mercado.
Se aplican reglas más estrictas a los modelos básicos de alto impacto con complejidad avanzada y capacidades para difundir riesgos sistémicos.
Oficina de IA, panel científico y más
La necesidad de hacer cumplir la normativa a nivel de la UE se hace evidente con la introducción de nuevas normas sobre modelos de IA de uso general.
Se creará una Oficina de IA dentro de la Comisión para supervisar estos modelos avanzados de IA. Esta oficina contribuirá a desarrollar estándares, probar prácticas y hacer cumplir reglas comunes.
Un panel científico de expertos independientes asesorará a la Oficina de IA sobre diversos aspectos de los modelos de IA. La Junta de AI, compuesta por representantes de los Estados miembros, servirá como plataforma de coordinación y órgano asesor.
Además, se establecerá un foro asesor para brindar experiencia técnica de representantes de la industria, las PYME, la sociedad civil y el mundo académico.
Sanciones y cumplimiento
El acuerdo establece multas por violaciones de la Ley de IA basadas en un porcentaje de la facturación anual global de la empresa infractora o en una cantidad predeterminada.
Serían 35 millones de euros o el 7 por ciento por violaciones de las aplicaciones de IA prohibidas, 15 millones de euros o el 3 por ciento por violaciones de las obligaciones de la ley de IA, y 7.5 millones de euros o el 1,5 por ciento por el suministro de información incorrecta.
Sin embargo, el acuerdo provisional establece límites más proporcionados a las multas administrativas para las pymes y las empresas de nueva creación en caso de infracción de las disposiciones de la Ley de IA.
Transparencia y derechos fundamentales
El acuerdo provisional prevé una evaluación del impacto sobre los derechos fundamentales antes de que sus implementadores pongan en el mercado un sistema de inteligencia artificial de alto riesgo.
El acuerdo provisional también prevé una mayor transparencia con respecto a los sistemas de IA de alto riesgo.
En particular, se han modificado algunas disposiciones de la propuesta de la Comisión para indicar que ciertos usuarios de sistemas de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en la base de datos de la UE para sistemas de IA de alto riesgo.
Además, las disposiciones recientemente añadidas hacen hincapié en la obligación de que los usuarios de un sistema de reconocimiento de emociones informen a las personas físicas cuando estén expuestas a dicho sistema.
Establecer zonas de pruebas regulatorias
Para promover un entorno favorable a la innovación, el acuerdo incluye medidas para apoyar la innovación en IA.
Se establecerán entornos de pruebas regulatorios para crear un entorno controlado para desarrollar y probar sistemas de IA innovadores.
También se permitirán pruebas de sistemas de IA en condiciones del mundo real bajo condiciones y salvaguardias específicas.
El acuerdo reconoce la carga administrativa de las empresas más pequeñas y proporciona una lista de acciones de apoyo y derogaciones limitadas para aliviar esta carga.
Entrada en vigor
El acuerdo provisional establece que la Ley de IA debería aplicarse dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas.
Tras el acuerdo provisional, se llevarán a cabo más trabajos técnicos para ultimar los detalles del reglamento.
El texto de compromiso se presentará a los representantes de los estados miembros para su aprobación.
A continuación, el acuerdo se someterá a una revisión jurídico-lingüística antes de su adopción formal por parte de los colegisladores.
IBM sobre la ley de IA de la UE
Con respecto a la histórica Ley de IA de la UE, el gigante tecnológico IBM dice: “IBM aplaude a los negociadores de la UE por alcanzar un acuerdo provisional sobre la primera legislación integral sobre IA del mundo. Durante mucho tiempo hemos instado a la UE a adoptar un enfoque cuidadosamente equilibrado, centrado en regular las aplicaciones de IA de alto riesgo y al mismo tiempo promover la transparencia, la explicabilidad y la seguridad entre todos los modelos de IA. Mientras los legisladores trabajan en los detalles técnicos restantes, animamos a los responsables políticos de la UE a mantener este enfoque en el riesgo y la responsabilidad, en lugar de los algoritmos”.
“Compartimos los objetivos de permitir el desarrollo seguro y confiable de la IA y crear una IA abierta y pro-innovación. ecosystemy reconocer que tanto el gobierno como la industria tienen papeles que desempeñar”, afirma la empresa.
Recientemente, la compañía anunció watsonx.gobernanza para proporcionar a las organizaciones el conjunto de herramientas que necesitan para gestionar el riesgo, adoptar la transparencia y anticipar el cumplimiento de regulaciones centradas en la IA como esta.