Na een uitgebreide 3-daagse 'marathon gesprekken'hebben de onderhandelaars van het voorzitterschap van de Raad en het Europees Parlement op zaterdag 9 december een voorlopig akkoord bereikt over het voorstel voor geharmoniseerde regels voor artificial intelligence (AI) โ de Artificial Intelligence Handelen.
De ontwerpverordening heeft tot doel de veiligheid en het respect voor de grondrechten en de EU-waarden te waarborgen van AI-systemen die in de EU worden verkocht en gebruikt.
De raad zegt dat dit voorstel ook tot doel heeft investeringen en innovatie in AI in Europa te stimuleren.
Het bevorderen van de ontwikkeling en adoptie van veilige AI
De AI-wet is een wetgevingsinitiatief dat tot doel heeft de ontwikkeling en adoptie van veilige AI onder publieke en private entiteiten op de interne markt van de EU te bevorderen.
De โrisicogebaseerdeโ benadering stelt voor om AI te reguleren op basis van het potentieel ervan om de samenleving schade te berokkenen, met strengere regels voor scenarioโs met een hoger risico.
Als het eerste wetgevingsvoorstel in zijn soort ter wereld kan het een mondiale standaard stellen voor AI-regulering in andere rechtsgebieden, net zoals de AVG dat heeft gedaan, en zo de Europese aanpak van technologieregulering op het wereldtoneel bevorderen.
โDit is een historische prestatie en een enorme mijlpaal voor de toekomst! Het akkoord van vandaag gaat effectief in op een mondiale uitdaging in een snel evoluerende technologische omgeving op een sleutelgebied voor de toekomst van onze samenlevingen en economieรซn. En bij deze onderneming zijn we erin geslaagd een uiterst delicaat evenwicht te bewaren: het stimuleren van innovatie en de toepassing ervan artificial intelligence in heel Europa, terwijl we de fundamentele rechten van onze burgers volledig respecterenโ, zegt Carme Artigas, de Spaanse staatssecretaris voor digitalisering en artificial intelligence.
De belangrijkste elementen van het voorlopige akkoord
Vergeleken met het oorspronkelijke voorstel van de Commissie kunnen de belangrijkste nieuwe elementen van het voorlopige akkoord summa zijnrised als volgt:
- regels voor krachtige AI-modellen voor algemene doeleinden die c
- een systeemrisico in de toekomst veroorzaken, evenals voor AI-systemen met een hoog risico
- een herzien bestuurssysteem met enkele handhavingsbevoegdheden op EU-niveau
- uitbreiding van de lijst met verboden, maar met de mogelijkheid om biometrische identificatie op afstand door wetshandhavingsautoriteiten in openbare ruimtes te gebruiken, onder voorbehoud van waarborgen
- betere bescherming van rechten door de verplichting voor exploitanten van AI-systemen met een hoog risico om een โโeffectbeoordeling op de grondrechten uit te voeren voordat een AI-systeem in gebruik wordt genomen.
Onderscheid AI van eenvoudiger software
Om te zorgen voor duidelijke criteria om AI van eenvoudiger te onderscheiden software systemen brengt de overeenkomst de definitie van een AI-systeem in lijn met de door de OESO voorgestelde aanpak.
Het benadrukt ook dat de verordening niet van toepassing is op gebieden die buiten de reikwijdte van het EU-recht of de bevoegdheden van de lidstaten op het gebied van nationale veiligheid of defensie vallen.
Bovendien is de AI-wet niet van toepassing op AI-systemen die uitsluitend worden gebruikt voor militaire, defensie- of niet-professionele doeleinden.
Classificatie van risicovolle AI-systemen en verboden praktijken
Het voorlopige akkoord introduceert een classificatiesysteem voor AI-systemen op basis van hun risiconiveau.
AI-systemen met een hoog risico, evenals AI-modellen met een grote impact voor algemene doeleinden die in de toekomst systeemrisico's kunnen veroorzaken, zullen aan strengere eisen en verplichtingen onderworpen zijn.
Aan de andere kant zullen AI-systemen die een beperkt risico met zich meebrengen, lichtere transparantieverplichtingen hebben.
De overeenkomst verbiedt ook bepaalde AI-praktijken, zoals cognitieve gedragsmanipulatie, het ongericht schrapen van gezichtsbeelden, emotieherkenning op de werkplek en in onderwijsinstellingen, sociale scores, biometrische categorisering en sommige gevallen van voorspellend politiewerk voor individuen.
Uitzonderingen voor wetshandhavingsinstanties
Gezien de bijzonderheden van de rechtshandhavingsautoriteiten en de noodzaak om hun vermogen om AI te gebruiken in hun cruciale werk te behouden, werd overeenstemming bereikt over verschillende wijzigingen in het voorstel van de Commissie met betrekking tot het gebruik van AI-systemen voor rechtshandhavingsdoeleinden.
Deze bepalingen zorgen weliswaar voor passende waarborgen, maar maken de inzet van risicovolle AI-instrumenten door wetshandhavingsinstanties in urgente situaties mogelijk.
Er worden echter mechanismen ingevoerd om de grondrechten te beschermen tegen mogelijk misbruik van AI-systemen.
Het gebruik van real-time biometrische identificatiesystemen op afstand in publiek toegankelijke ruimtes is ook onderworpen aan strikte waarborgen en beperkt tot specifieke wetshandhavingsdoeleinden.
AI-systemen en funderingsmodellen voor algemeen gebruik
Volgens de Europese Raad zijn er nieuwe bepalingen toegevoegd aan situaties waarin AI-systemen voor veel verschillende doeleinden kunnen worden gebruikt (algemene AI), en waar algemene AI-technologie vervolgens wordt geรฏntegreerd in een ander risicovol systeem.
De voorlopige overeenkomst heeft ook betrekking op de specifieke gevallen van AI-systemen voor algemene doeleinden (GPAI).
Basismodellen, die een breed scala aan taken kunnen uitvoeren (zoals het genereren van video, tekst, afbeeldingen, converseren in laterale taal, computergebruik of het genereren van computercode), moeten voldoen aan de eisen van transparantieverplichtingen voordat ze op de markt komen.
Er gelden strengere regels voor funderingsmodellen met een grote impact, met een geavanceerde complexiteit en mogelijkheden om systeemrisico's te verspreiden.
AI-kantoor, wetenschappelijk panel en meer
De noodzaak van handhaving op EU-niveau wordt duidelijk met de introductie van nieuwe regels voor AI-modellen voor algemene doeleinden.
Binnen de Commissie zal een AI-bureau worden opgericht om toezicht te houden op deze geavanceerde AI-modellen. Dit bureau zal bijdragen aan het ontwikkelen van normen, testpraktijken en het handhaven van gemeenschappelijke regels.
Een wetenschappelijk panel van onafhankelijke deskundigen zal het AI Office adviseren over verschillende aspecten van AI-modellen. De AI Board, bestaande uit vertegenwoordigers van de lidstaten, zal dienen als coรถrdinatieplatform en adviesorgaan.
Daarnaast zal er een adviesforum worden opgericht om technische expertise te bieden aan vertegenwoordigers van het bedrijfsleven, het MKB, het maatschappelijk middenveld en de academische wereld.
Sancties en naleving
De overeenkomst bevat boetes voor overtredingen van de AI-wet, gebaseerd op een percentage van de wereldwijde jaaromzet van het overtredende bedrijf of een vooraf bepaald bedrag.
Het zou 35 miljoen euro of 7 procent bedragen voor overtredingen van de verboden AI-toepassingen, 15 miljoen euro of 3 procent voor overtredingen van de verplichtingen van de AI-wet, en 7.5 miljoen euro of 1,5 procent voor het verstrekken van onjuiste informatie.
Het voorlopige akkoord voorziet echter in proportionelere plafonds voor administratieve boetes voor kmoโs en startende ondernemingen in geval van overtreding van de bepalingen van de AI-wet.
Transparantie en grondrechten
De voorlopige overeenkomst voorziet in een effectbeoordeling op de grondrechten voordat de exploitanten ervan een risicovol AI-systeem op de markt brengen.
Het voorlopige akkoord voorziet ook in meer transparantie met betrekking tot AI-systemen met een hoog risico.
Met name zijn enkele bepalingen van het Commissievoorstel gewijzigd om aan te geven dat bepaalde gebruikers van AI-systemen met een hoog risico die publieke entiteiten zijn, ook verplicht zullen zijn zich te registreren in de EU-databank voor AI-systemen met een hoog risico.
Bovendien leggen nieuw toegevoegde bepalingen de nadruk op de verplichting voor gebruikers van een systeem voor emotieherkenning om natuurlijke personen te informeren wanneer zij aan een dergelijk systeem worden blootgesteld.
Opzetten van regelgevingssandboxen
Om een โโinnovatievriendelijk klimaat te bevorderen, omvat de overeenkomst maatregelen ter ondersteuning van innovatie op het gebied van AI.
Er zullen regelgevingssandboxen worden opgezet om een โโgecontroleerde omgeving te creรซren voor het ontwikkelen en testen van innovatieve AI-systemen.
Het testen van AI-systemen in reรซle omstandigheden zal ook worden toegestaan โโonder specifieke voorwaarden en waarborgen.
De overeenkomst erkent de administratieve lasten van kleinere bedrijven en biedt een lijst met ondersteunende maatregelen en beperkte afwijkingen om deze lasten te verlichten.
Wordt van kracht
In het voorlopige akkoord is bepaald dat de AI-wet twee jaar na de inwerkingtreding ervan van toepassing moet zijn, met enkele uitzonderingen voor specifieke bepalingen.
Na het voorlopige akkoord zullen verdere technische werkzaamheden worden uitgevoerd om de details van de verordening af te ronden.
De compromistekst zal ter goedkeuring aan de vertegenwoordigers van de lidstaten worden voorgelegd.
Het akkoord zal vervolgens een juridisch-taalkundige herziening ondergaan voordat het formeel door de medewetgevers wordt aangenomen.
IBM over de AI-wet van de EU
Over de baanbrekende EU AI-wet zegt technologiegigant IBM: โIBM juicht de onderhandelaars van de EU toe voor het bereiken van een voorlopig akkoord over 's werelds eerste alomvattende AI-wetgeving. We hebben er bij de EU al lang op aangedrongen een zorgvuldig evenwichtige aanpak te volgen, gericht op het reguleren van toepassingen van AI met een hoog risico en tegelijkertijd de transparantie, verklaarbaarheid en veiligheid van alle AI-modellen te bevorderen. Terwijl wetgevers de resterende technische details doornemen, moedigen wij EU-beleidsmakers aan om deze focus op risicoโs en aansprakelijkheid te behouden, in plaats van op algoritmen.โ
โWe delen de doelstellingen om de veilige en betrouwbare ontwikkeling van AI mogelijk te maken en een open, pro-innovatieve AI te creรซren ecosystemen erkennen dat zowel de overheid als de industrie een rol te spelen hebbenโ, zegt het bedrijf.
Dat maakte het bedrijf onlangs bekend watsonx.governance om organisaties te voorzien van de toolkit die ze nodig hebben om risicoโs te beheersen, transparantie te omarmen en te anticiperen op de naleving van op AI gerichte regelgeving als deze.