Nach einer ausgiebigen dreitägigenMarathon-Gespräche' haben die Verhandlungsführer der Ratspräsidentschaft und des Europäischen Parlaments am Samstag, 9. Dezember, eine vorläufige Einigung über den Vorschlag für harmonisierte Regelungen erzielt artificial intelligence (KI) – die Artificial Intelligence Gesetzes.
Der Verordnungsentwurf zielt darauf ab, die Sicherheit und Achtung der Grundrechte und EU-Werte von in der EU verkauften und genutzten KI-Systemen zu gewährleisten.
Der Rat sagt, dass dieser Vorschlag auch darauf abzielt, Investitionen und Innovationen im Bereich KI in Europa anzuregen.
Förderung der Entwicklung und Einführung sicherer KI
Das KI-Gesetz ist eine Gesetzesinitiative, die darauf abzielt, die Entwicklung und Einführung sicherer KI bei öffentlichen und privaten Einrichtungen im EU-Binnenmarkt zu fördern.
Der „risikobasierte“ Ansatz schlägt vor, KI auf der Grundlage ihres Potenzials, der Gesellschaft Schaden zuzufügen, zu regulieren, mit strengeren Regeln für Szenarien mit höherem Risiko.
Als weltweit erster Gesetzesvorschlag dieser Art kann er, genau wie die DSGVO, einen globalen Standard für die KI-Regulierung in anderen Gerichtsbarkeiten setzen und so den europäischen Ansatz zur Technologieregulierung auf der Weltbühne fördern.
„Dies ist eine historische Errungenschaft und ein großer Meilenstein für die Zukunft! Mit der heutigen Vereinbarung wird eine globale Herausforderung in einem sich schnell entwickelnden technologischen Umfeld in einem Schlüsselbereich für die Zukunft unserer Gesellschaften und Volkswirtschaften angegangen. Und bei diesem Unterfangen ist es uns gelungen, ein äußerst empfindliches Gleichgewicht zu wahren: die Förderung von Innovation und die Akzeptanz von artificial intelligence in ganz Europa unter voller Achtung der Grundrechte unserer Bürger“, sagt Carme Artigas, spanische Staatssekretärin für Digitalisierung und artificial intelligence.
Die wichtigsten Elemente der vorläufigen Vereinbarung
Im Vergleich zum ursprünglichen Kommissionsvorschlag können die wichtigsten neuen Elemente der vorläufigen Vereinbarung zusammengefasst werdenrised wie folgt:
- Regeln für hochwirksame Allzweck-KI-Modelle, die c
- eine Ursache für systemische Risiken in der Zukunft sowie für KI-Systeme mit hohem Risiko
- ein überarbeitetes Governance-System mit einigen Durchsetzungsbefugnissen auf EU-Ebene
- Erweiterung der Verbotsliste, jedoch mit der Möglichkeit, die biometrische Fernidentifizierung durch Strafverfolgungsbehörden im öffentlichen Raum unter Einhaltung von Schutzmaßnahmen zu nutzen
- Besserer Schutz der Rechte durch die Verpflichtung für Betreiber von KI-Systemen mit hohem Risiko, vor der Inbetriebnahme eines KI-Systems eine Folgenabschätzung für die Grundrechte durchzuführen.
KI von einfacher unterscheiden software
Um klare Kriterien zur Unterscheidung von KI und einfacher zu gewährleisten software Systeme gleicht die Vereinbarung die Definition eines KI-Systems mit dem von der OECD vorgeschlagenen Ansatz aus.
Es wird auch betont, dass die Verordnung nicht für Bereiche gilt, die außerhalb des Geltungsbereichs des EU-Rechts oder der Zuständigkeiten der Mitgliedstaaten für die nationale Sicherheit oder Verteidigung liegen.
Darüber hinaus gilt das KI-Gesetz nicht für KI-Systeme, die ausschließlich für militärische, Verteidigungs- oder nichtprofessionelle Zwecke verwendet werden.
Klassifizierung von KI-Systemen mit hohem Risiko und verbotenen Praktiken
Mit der vorläufigen Vereinbarung wird ein Klassifizierungssystem für KI-Systeme basierend auf ihrem Risikograd eingeführt.
Für KI-Systeme mit hohem Risiko sowie für Allzweck-KI-Modelle mit hoher Auswirkung, die künftig systemische Risiken verursachen können, gelten strengere Anforderungen und Pflichten.
Andererseits werden für KI-Systeme, die ein begrenztes Risiko darstellen, geringere Transparenzpflichten gelten.
Die Vereinbarung verbietet auch bestimmte KI-Praktiken, wie z. B. kognitive Verhaltensmanipulation, ungezieltes Scraping von Gesichtsbildern, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, Social Scoring, biometrische Kategorisierung und einige Fälle von Predictive Policing für Einzelpersonen.
Ausnahmen für Strafverfolgungsbehörden
In Anbetracht der Besonderheiten der Strafverfolgungsbehörden und der Notwendigkeit, ihre Fähigkeit zum Einsatz von KI bei ihrer lebenswichtigen Arbeit zu wahren, einigte man sich auf mehrere Änderungen am Kommissionsvorschlag in Bezug auf den Einsatz von KI-Systemen für Strafverfolgungszwecke.
Diese Bestimmungen gewährleisten zwar angemessene Schutzmaßnahmen, ermöglichen aber auch den Einsatz hochriskanter KI-Tools durch Strafverfolgungsbehörden in dringenden Situationen.
Allerdings werden Mechanismen zum Schutz der Grundrechte vor einem möglichen Missbrauch von KI-Systemen eingeführt.
Auch der Einsatz biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen unterliegt strengen Sicherheitsvorkehrungen und ist auf bestimmte Strafverfolgungszwecke beschränkt.
Allzweck-KI-Systeme und Basismodelle
Dem Europäischen Rat zufolge wurden neue Bestimmungen für Situationen hinzugefügt, in denen KI-Systeme für viele verschiedene Zwecke verwendet werden können (Allzweck-KI) und in denen Allzweck-KI-Technologie anschließend in ein anderes Hochrisikosystem integriert wird.
Die vorläufige Vereinbarung befasst sich auch mit den spezifischen Fällen von Systemen der allgemeinen KI (GPAI).
Foundation-Modelle, die in der Lage sind, ein breites Spektrum an Aufgaben auszuführen (z. B. Video, Text, Bilder generieren, sich in lateraler Sprache unterhalten, rechnen oder Computercode generieren), müssen vor dem Markteintritt die Transparenzverpflichtungen erfüllen.
Strengere Regeln gelten für hochwirksame Basismodelle mit hoher Komplexität und Fähigkeiten zur Verbreitung systemischer Risiken.
KI-Büro, wissenschaftliches Gremium und mehr
Die Notwendigkeit einer Durchsetzung auf EU-Ebene wird mit der Einführung neuer Regeln für Allzweck-KI-Modelle deutlich.
Innerhalb der Kommission wird ein KI-Büro eingerichtet, das diese fortschrittlichen KI-Modelle überwacht. Dieses Büro wird zur Entwicklung von Standards, Testpraktiken und zur Durchsetzung gemeinsamer Regeln beitragen.
Ein wissenschaftliches Gremium aus unabhängigen Experten berät das KI-Büro zu verschiedenen Aspekten von KI-Modellen. Das AI Board, bestehend aus Vertretern der Mitgliedstaaten, wird als Koordinierungsplattform und Beratungsgremium dienen.
Darüber hinaus wird ein Beratungsforum eingerichtet, um technisches Fachwissen von Industrievertretern, KMU, der Zivilgesellschaft und der Wissenschaft bereitzustellen.
Strafen und Compliance
Die Vereinbarung legt Bußgelder für Verstöße gegen das KI-Gesetz fest, die auf einem Prozentsatz des weltweiten Jahresumsatzes des betreffenden Unternehmens oder einem vorher festgelegten Betrag basieren.
Bei Verstößen gegen die verbotenen KI-Anwendungen wären es 35 Millionen Euro oder 7 Prozent, bei Verstößen gegen die Pflichten des KI-Gesetzes 15 Millionen Euro oder 3 Prozent und bei der Bereitstellung falscher Informationen 7.5 Millionen Euro oder 1,5 Prozent.
Allerdings sieht die vorläufige Einigung verhältnismäßigere Bußgeldobergrenzen für KMU und Start-ups bei Verstößen gegen die Bestimmungen des KI-Gesetzes vor.
Transparenz und Grundrechte
Die vorläufige Vereinbarung sieht eine Folgenabschätzung für die Grundrechte vor, bevor die Betreiber ein KI-System mit hohem Risiko auf den Markt bringen.
Die vorläufige Vereinbarung sieht außerdem eine erhöhte Transparenz hinsichtlich risikoreicher KI-Systeme vor.
Insbesondere wurden einige Bestimmungen des Kommissionsvorschlags dahingehend geändert, dass bestimmte Nutzer von Hochrisiko-KI-Systemen, bei denen es sich um öffentliche Einrichtungen handelt, ebenfalls verpflichtet werden, sich in der EU-Datenbank für Hochrisiko-KI-Systeme zu registrieren.
Darüber hinaus betonen neu hinzugefügte Bestimmungen die Verpflichtung der Nutzer eines Emotionserkennungssystems, natürliche Personen zu informieren, wenn sie einem solchen System ausgesetzt sind.
Einrichtung regulatorischer Sandboxen
Um ein innovationsfreundliches Umfeld zu fördern, enthält die Vereinbarung Maßnahmen zur Unterstützung von Innovationen in der KI.
Es werden regulatorische Sandboxen eingerichtet, um eine kontrollierte Umgebung für die Entwicklung und Erprobung innovativer KI-Systeme zu schaffen.
Unter bestimmten Bedingungen und Schutzmaßnahmen wird auch das Testen von KI-Systemen unter realen Bedingungen zulässig sein.
Die Vereinbarung erkennt den Verwaltungsaufwand kleinerer Unternehmen an und enthält eine Liste unterstützender Maßnahmen und begrenzter Ausnahmeregelungen, um diesen Aufwand zu verringern.
Inkrafttreten
Die vorläufige Vereinbarung sieht vor, dass das KI-Gesetz zwei Jahre nach seinem Inkrafttreten gelten soll, mit einigen Ausnahmen für bestimmte Bestimmungen.
Nach der vorläufigen Einigung werden weitere technische Arbeiten durchgeführt, um die Einzelheiten der Verordnung festzulegen.
Der Kompromisstext wird den Vertretern der Mitgliedstaaten zur Billigung vorgelegt.
Das Abkommen wird dann einer juristischen und sprachlichen Überarbeitung unterzogen, bevor es von den Mitgesetzgebern offiziell angenommen wird.
IBM zum EU-KI-Gesetz
Zum wegweisenden EU-KI-Gesetz sagt der Technologieriese IBM: „IBM lobt die EU-Verhandlungsführer dafür, dass sie eine vorläufige Einigung über die weltweit erste umfassende KI-Gesetzgebung erzielt haben.“ Wir fordern die EU seit langem zu einem sorgfältig ausgewogenen Ansatz auf, der sich auf die Regulierung hochriskanter KI-Anwendungen konzentriert und gleichzeitig Transparenz, Erklärbarkeit und Sicherheit aller KI-Modelle fördert. Während der Gesetzgeber die verbleibenden technischen Details durcharbeitet, ermutigen wir die politischen Entscheidungsträger der EU, sich weiterhin auf Risiko und Rechenschaftspflicht und nicht auf Algorithmen zu konzentrieren.“
„Wir teilen die Ziele, die sichere und vertrauenswürdige Entwicklung von KI zu ermöglichen und eine offene, innovationsfreundliche KI zu schaffen ecosystem, und erkennen an, dass sowohl die Regierung als auch die Industrie eine Rolle spielen müssen“, sagt das Unternehmen.
Kürzlich gab das Unternehmen bekannt watsonx.governance um Organisationen das Toolkit zur Verfügung zu stellen, das sie benötigen, um Risiken zu managen, Transparenz zu schaffen und die Einhaltung KI-fokussierter Vorschriften wie dieser zu antizipieren.