En un intento por regular artificial intelligence (IA) dentro del Unión Europea, los miembros del Parlamento Europeo (MEP) han respaldado un acuerdo provisional sobre la Artificial Intelligence Actuar a nivel de comité.
El acuerdo, que tiene como objetivo garantizar la seguridad y el respeto de los derechos fundamentales, recibió un apoyo abrumador durante la votación de las comisiones de Mercado Interior y Libertades Civiles el martes, con un recuento de 71 a 8 y 7 abstenciones.
“Este reglamento tiene como objetivo proteger los derechos fundamentales, la democracia, el estado de derecho y la sostenibilidad ambiental de la IA de alto riesgo. Al mismo tiempo, pretende impulsar la innovación y establecer a Europa como líder en el campo de la IA. Las normas establecen obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto”, dice el Parlamento Europeo.
El anuncio se produce tres meses después de alcanzar un acuerdo provisional sobre la propuesta de normas armonizadas que regulan artificial intelligence (AI) — el Artificial Intelligence Actuar.
Disposiciones clave de la Artificial Intelligence (IA) Ley
1. Aplicaciones prohibidas:
El acuerdo prohíbe determinadas aplicaciones de IA que amenazan los derechos de los ciudadanos. Incluye:
- Sistemas de categorización biométrica basados en características sensibles.
- Extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para bases de datos de reconocimiento facial
- Reconocimiento de emociones en el lugar de trabajo y las escuelas.
- Puntuación social
- La vigilancia policial predictiva se basa únicamente en perfilar a una persona o evaluar sus características.
- IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas
2. Exenciones para el cumplimiento de la ley
El uso de sistemas de identificación biométrica (RBI) por parte de las fuerzas del orden está prohibido en principio, excepto en situaciones enumeradas exhaustivamente y definidas de forma estricta.
La RBI “en tiempo real” sólo puede implementarse bajo estrictas salvaguardias, por ejemplo, limitadas en tiempo y alcance geográfico, con autorización judicial o administrativa previa.
El despliegue posterior a distancia, considerado de alto riesgo, también requiere autorización judicial y debe estar vinculado a un delito penal.
3. Obligaciones para sistemas de alto riesgo
La legislación impone obligaciones claras a los sistemas de IA de alto riesgo que podrían afectar significativamente la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho. Estas obligaciones se extienden a la infraestructura crítica, la educación, el empleo, los servicios esenciales, la aplicación de la ley, la gestión de la migración y las fronteras, la justicia y los procesos democráticos. Los ciudadanos tienen derecho a presentar quejas sobre los sistemas de inteligencia artificial que afecten a sus derechos.
4. Requisitos de transparencia
Los sistemas de IA de propósito general (GPAI) y sus modelos subyacentes deben cumplir con los requisitos de transparencia y la ley de derechos de autor de la UE durante la capacitación. Los modelos más potentes que plantean riesgos sistémicos enfrentarán obligaciones adicionales de evaluación, evaluación de riesgos y presentación de informes. Además, el contenido de vídeo artificial o manipulado (“deepfakes”) debe estar claramente etiquetado como tal.
5. Medidas de apoyo a la innovación y a las pymes
Se establecerán entornos de prueba regulatorios e iniciativas de pruebas en el mundo real a nivel nacional, ofreciendo a las PYMES y startups oportunidades para desarrollar y capacitar soluciones innovadoras de IA antes de su comercialización.
Aunque el acuerdo provisional ha recibido el respaldo a nivel de comité, espera la adopción formal en una próxima sesión plenaria del Parlamento Europeo y el respaldo final del Consejo.
Una vez adoptada plenamente, la Artificial Intelligence La Ley será aplicable dentro de los 24 meses siguientes a su entrada en vigor. Sin embargo, ciertas disposiciones, como
- Las prohibiciones de prácticas prohibidas se aplicarán 6 meses después de la entrada en vigor
- Los códigos de práctica se aplicarán nueve meses después de su entrada en vigor
- Las normas de IA de uso general, incluida la gobernanza, se aplicarán 12 meses después de su entrada en vigor.
- Obligaciones para sistemas de alto riesgo se aplicarán en 36 meses