Dans une démarche de régulation artificial intelligence (IA) au sein du Union européenne, les députés du Parlement européen (MPE) ont approuvé un accord provisoire sur le Artificial Intelligence Agir au niveau du comité.
L'accord, qui vise à garantir la sécurité et le respect des droits fondamentaux, a reçu un soutien massif lors du vote des commissions du marché intérieur et des libertés civiles mardi, avec un total de 71 voix contre 8 et 7 abstentions.
« Ce règlement vise à protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale contre l’IA à haut risque. Dans le même temps, il vise à stimuler l’innovation et à faire de l’Europe un leader dans le domaine de l’IA. Les règles mettent en place des obligations pour l’IA en fonction de ses risques potentiels et de son niveau d’impact », déclare le Parlement européen.
L'annonce intervient trois mois après avoir atteint un accord provisoire sur la proposition de règles harmonisées régissant artificial intelligence (AI) - le Artificial Intelligence Acte.
Dispositions clés de la Artificial Intelligence (IA) Loi
1. Applications interdites :
L'accord interdit certaines applications d'IA qui menacent les droits des citoyens. Il comprend:
- Systèmes de catégorisation biométrique basés sur des caractéristiques sensibles
- Récupération non ciblée d'images faciales provenant d'Internet ou de séquences de vidéosurveillance pour les bases de données de reconnaissance faciale
- Reconnaissance des émotions sur le lieu de travail et dans les écoles
- Notation sociale
- La police prédictive repose uniquement sur le profilage d’une personne ou l’évaluation de ses caractéristiques
- IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes
2. Exemptions liées à l'application de la loi
L’utilisation de systèmes d’identification biométrique (RBI) par les forces de l’ordre est en principe interdite, sauf dans des situations exhaustivement énumérées et étroitement définies.
Le RBI « en temps réel » ne peut être déployé que sous des garanties strictes, par exemple limitées dans le temps et dans une portée géographique, avec une autorisation judiciaire ou administrative préalable.
Le déploiement post-distance, considéré comme à haut risque, nécessite également une autorisation judiciaire et doit être lié à une infraction pénale.
3. Obligations pour les systèmes à haut risque
La législation impose des obligations claires aux systèmes d’IA à haut risque qui pourraient avoir un impact significatif sur la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit. Ces obligations s'étendent aux infrastructures critiques, à l'éducation, à l'emploi, aux services essentiels, à l'application de la loi, à la gestion des migrations et des frontières, à la justice et aux processus démocratiques. Les citoyens ont le droit de déposer une plainte concernant les systèmes d'IA affectant leurs droits.
4. Exigences de transparence
Les systèmes d'IA à usage général (GPAI) et leurs modèles sous-jacents doivent répondre aux exigences de transparence et se conformer à la loi européenne sur le droit d'auteur pendant la formation. Les modèles plus puissants présentant des risques systémiques seront confrontés à des obligations supplémentaires d’évaluation, d’évaluation des risques et de reporting. De plus, les contenus vidéo artificiels ou manipulés (« deepfakes ») doivent être clairement étiquetés comme tels.
5. Mesures de soutien à l'innovation et aux PME
Des bacs à sable réglementaires et des initiatives de tests en situation réelle seront mis en place au niveau national, offrant aux PME et startups opportunités de développer et de former des solutions d’IA innovantes avant leur mise sur le marché.
Même si l'accord provisoire a reçu l'approbation au niveau des commissions, il attend son adoption formelle lors d'une prochaine session plénière du Parlement européen et l'approbation finale du Conseil.
Une fois pleinement adopté, le Artificial Intelligence La loi deviendra applicable dans les 24 mois suivant son entrée en vigueur. Toutefois, certaines dispositions, comme
- Les interdictions des pratiques interdites s'appliqueront 6 mois après l'entrée en vigueur
- Les codes de bonnes pratiques s'appliqueront 9 mois après leur entrée en vigueur
- Les règles générales sur l’IA, y compris la gouvernance, s’appliqueront 12 mois après leur entrée en vigueur
- Les obligations pour les systèmes à haut risque s'appliqueront dans 36 mois