Dopo aver trascorso 3 giorni intensivicolloqui di maratona', i negoziatori della presidenza del Consiglio e del Parlamento europeo, sabato 9 dicembre, hanno raggiunto un accordo provvisorio sulla proposta di norme armonizzate che disciplinano artificial intelligence (AI) โ il Artificial Intelligence Atto.
Il progetto di regolamento mira a garantire la sicurezza e il rispetto dei diritti fondamentali e dei valori dellโUE dei sistemi di IA venduti e utilizzati nellโUE.
Il Consiglio afferma che questa proposta mira anche a stimolare gli investimenti e lโinnovazione nellโintelligenza artificiale in Europa.
Promuovere lo sviluppo e lโadozione di unโIA sicura
L'AI Act รจ un'iniziativa legislativa che mira a promuovere lo sviluppo e l'adozione di un'IA sicura tra gli enti pubblici e privati โโnel mercato unico dell'UE.
Lโapproccio โbasato sul rischioโ propone di regolamentare lโIA in base al suo potenziale di causare danni alla societร , con regole piรน severe per gli scenari a rischio piรน elevato.
Essendo la prima proposta legislativa di questo tipo al mondo, puรฒ stabilire uno standard globale per la regolamentazione dellโIA in altre giurisdizioni, proprio come ha fatto il GDPR, promuovendo cosรฌ lโapproccio europeo alla regolamentazione tecnologica sulla scena mondiale.
โQuesto รจ un risultato storico e unโenorme pietra miliare verso il futuro! L'accordo odierno affronta in modo efficace una sfida globale in un ambiente tecnologico in rapida evoluzione in un settore chiave per il futuro delle nostre societร ed economie. E in questo sforzo siamo riusciti a mantenere un equilibrio estremamente delicato: promuovere lโinnovazione e lโadozione di artificial intelligence in tutta Europa nel pieno rispetto dei diritti fondamentali dei nostri cittadiniโ, afferma Carme Artigas, segretario di Stato spagnolo per la digitalizzazione e artificial intelligence.
Gli elementi principali dell'accordo provvisorio
Rispetto alla proposta iniziale della Commissione, i principali elementi di novitร dell'accordo provvisorio possono essere summarised come segue:
- norme sui modelli di IA per scopi generali ad alto impatto che c
- un rischio sistemico in futuro, nonchรฉ sui sistemi di intelligenza artificiale ad alto rischio
- un sistema di governance rivisto con alcuni poteri esecutivi a livello dellโUE
- estensione dell'elenco dei divieti ma con la possibilitร di utilizzare l'identificazione biometrica a distanza da parte delle forze dell'ordine negli spazi pubblici, fatte salve le garanzie
- una migliore tutela dei diritti attraverso lโobbligo per gli utilizzatori di sistemi di IA ad alto rischio di effettuare una valutazione dโimpatto sui diritti fondamentali prima di mettere in uso un sistema di IA.
Distinguere l'intelligenza artificiale da quella piรน semplice software
Garantire criteri chiari per distinguere lโIA da quella piรน semplice software sistemi di IA, lโaccordo allinea la definizione di sistema di IA allโapproccio proposto dallโOCSE.
Sottolinea inoltre che il regolamento non si applica ad ambiti che esulano dallโambito di applicazione del diritto dellโUE o dalle competenze degli Stati membri in materia di sicurezza o difesa nazionale.
Inoltre, la legge sullโintelligenza artificiale non si applica ai sistemi di intelligenza artificiale utilizzati esclusivamente per scopi militari, di difesa o non professionali.
Classificazione dei sistemi di IA ad alto rischio e pratiche vietate
L'accordo provvisorio introduce un sistema di classificazione dei sistemi di IA in base al loro livello di rischio.
I sistemi di IA ad alto rischio, cosรฌ come i modelli di IA generici ad alto impatto che possono causare rischi sistemici in futuro, saranno soggetti a requisiti e obblighi piรน severi.
Dโaltro canto, i sistemi di IA che presentano rischi limitati avranno obblighi di trasparenza piรน leggeri.
Lโaccordo vieta inoltre alcune pratiche di intelligenza artificiale, come la manipolazione cognitivo comportamentale, lโestrazione non mirata di immagini facciali, il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, il punteggio sociale, la categorizzazione biometrica e alcuni casi di polizia predittiva per gli individui.
Eccezioni per le forze dell'ordine
Considerando le particolaritร delle autoritร di contrasto e la necessitร di preservare la loro capacitร di utilizzare lโintelligenza artificiale nel loro lavoro vitale, sono state concordate diverse modifiche alla proposta della Commissione relativa allโuso dei sistemi di intelligenza artificiale a fini di contrasto.
Pur garantendo adeguate garanzie, queste disposizioni consentono lโimpiego di strumenti di IA ad alto rischio da parte delle forze dellโordine in situazioni urgenti.
Tuttavia, vengono introdotti meccanismi per proteggere i diritti fondamentali da un potenziale uso improprio dei sistemi di IA.
Anche lโuso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico รจ soggetto a rigorose garanzie e limitato a specifici fini di contrasto.
Sistemi di intelligenza artificiale per scopi generali e modelli di base
Secondo il Consiglio europeo, sono state aggiunte nuove disposizioni alle situazioni in cui i sistemi di IA possono essere utilizzati per molti scopi diversi (IA per scopi generali) e in cui la tecnologia di IA per scopi generali viene successivamente integrata in un altro sistema ad alto rischio.
Lโaccordo provvisorio affronta anche i casi specifici dei sistemi di IA per scopi generali (GPAI).
I modelli di fondazione, in grado di svolgere un'ampia gamma di compiti (come generare video, testi, immagini, conversare in linguaggio laterale, elaborare calcoli o generare codici informatici), devono rispettare i requisiti degli obblighi di trasparenza prima di entrare nel mercato.
Regole piรน severe si applicano ai modelli di fondazione ad alto impatto con complessitร avanzata e capacitร di diffondere i rischi sistemici.
Ufficio AI, comitato scientifico e altro ancora
La necessitร di unโapplicazione a livello dellโUE diventa evidente con lโintroduzione di nuove norme sui modelli di IA di uso generale.
Sarร istituito un ufficio IA allโinterno della Commissione per supervisionare questi modelli avanzati di IA. Questo ufficio contribuirร allo sviluppo di standard, alla sperimentazione di pratiche e allโapplicazione di regole comuni.
Un gruppo scientifico di esperti indipendenti consiglierร lโUfficio AI su vari aspetti dei modelli di IA. Il Comitato AI, composto dai rappresentanti degli Stati membri, fungerร da piattaforma di coordinamento e organo consultivo.
Inoltre, sarร istituito un forum consultivo per fornire competenze tecniche da parte di rappresentanti dellโindustria, delle PMI, della societร civile e del mondo accademico.
Sanzioni e adempimenti
L'accordo prevede sanzioni pecuniarie per le violazioni della legge sull'AI basate su una percentuale del fatturato annuo globale dell'azienda colpevole o su un importo predeterminato.
Sarebbero 35 milioni di euro o il 7% per violazioni delle applicazioni vietate sull'IA, 15 milioni di euro o il 3% per violazioni degli obblighi della legge sull'IA e 7.5 milioni di euro o 1,5% per la fornitura di informazioni errate.
Tuttavia, lโaccordo provvisorio prevede massimali piรน proporzionati alle sanzioni amministrative per le PMI e le start-up in caso di violazione delle disposizioni della legge sullโAI.
Trasparenza e diritti fondamentali
Lโaccordo provvisorio prevede una valutazione dโimpatto sui diritti fondamentali prima che i suoi utilizzatori immettano sul mercato un sistema di IA ad alto rischio.
Lโaccordo provvisorio prevede inoltre una maggiore trasparenza per quanto riguarda i sistemi di IA ad alto rischio.
In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che anche alcuni utenti di sistemi di IA ad alto rischio che sono enti pubblici saranno obbligati a registrarsi nella banca dati dellโUE per i sistemi di IA ad alto rischio.
Inoltre, le nuove disposizioni aggiunte pongono l'accento sull'obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando sono esposte a tale sistema.
Creazione di sandbox normativi
Per promuovere un ambiente favorevole allโinnovazione, lโaccordo prevede misure a sostegno dellโinnovazione nel campo dellโintelligenza artificiale.
Verranno istituiti sandbox normativi per creare un ambiente controllato per lo sviluppo e il test di sistemi di intelligenza artificiale innovativi.
Anche i test dei sistemi di intelligenza artificiale in condizioni reali saranno consentiti nel rispetto di condizioni e garanzie specifiche.
L'accordo riconosce gli oneri amministrativi delle imprese piรน piccole e fornisce un elenco di azioni di sostegno e deroghe limitate per alleviare tale onere.
Entrata in vigore
Lโaccordo provvisorio prevede che la legge sullโAI si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
A seguito dell'accordo provvisorio, saranno condotti ulteriori lavori tecnici per finalizzare i dettagli del regolamento.
Il testo di compromesso sarร sottoposto ai rappresentanti degli Stati membri per approvazione.
L'accordo sarร poi sottoposto a revisione giuridico-linguistica prima dell'adozione formale da parte dei colegislatori.
IBM sull'IA Act dell'UE
Per quanto riguarda lo storico EU AI Act, il colosso tecnologico IBM afferma: โIBM applaude i negoziatori dellโUE per aver raggiunto un accordo provvisorio sulla prima legislazione completa al mondo sullโIA. Da tempo invitiamo lโUE ad adottare un approccio attentamente equilibrato, incentrato sulla regolamentazione delle applicazioni ad alto rischio dellโIA, promuovendo al contempo trasparenza, spiegabilitร e sicurezza tra tutti i modelli di IA. Mentre i legislatori lavorano sui restanti dettagli tecnici, incoraggiamo i politici dellโUE a mantenere lโattenzione sul rischio e sulla responsabilitร , piuttosto che sugli algoritmiโ.
โCondividiamo gli obiettivi di consentire uno sviluppo sicuro e affidabile dellโIA e di creare unโintelligenza artificiale aperta e favorevole allโinnovazione ecosysteme riconosciamo che sia il governo che lโindustria hanno un ruolo da svolgereโ, afferma lโazienda.
Recentemente, la societร ha annunciato watsonx.governance per fornire alle organizzazioni gli strumenti di cui hanno bisogno per gestire il rischio, abbracciare la trasparenza e anticipare la conformitร con normative incentrate sullโintelligenza artificiale come questa.