Die Künstliche-Intelligenz-Verordnung (KI-Gesetz) der Europäischen Union ist da, um die Entwicklung und Nutzung von KI-Systemen neu zu gestalten. Das Gesetz stellt klar, dass die Einhaltung nur erreicht werden kann, wenn bestehende europäische Datenschutz-, Cybersicherheits- und Grundrechtsvorschriften respektiert werden.
Bei der Entwicklung oder dem Training von KI-Systemen werden personenbezogene Daten nicht unberührt gelassen, was folglich die Einhaltung von Datenschutzgesetzen erforderlich macht. Während das Gesetz an zahlreichen Punkten mit Datenschutzgesetzen zusammentrifft, erweist sich die Anonymisierung von Daten, insbesondere die Datenmaskierung und -verschleierung, als ein Schlüsselmechanismus zur Erleichterung der Einhaltung der Datenverwaltungspflichten des EU-KI-Gesetzes.
Dieser Artikel beleuchtet das EU-KI-Gesetz, das Zusammenspiel zwischen der DSGVO und dem EU-KI-Gesetz und wie Betreiber von KI-Systemen, insbesondere solche mit hohem Risiko, Anonymisierung einsetzen können, um die KI-Konformität zu gewährleisten.
EU-KI-Gesetz: Die erste umfassende Regulierung für KI
Die EU hat am 1. August 2024 in allen 27 Mitgliedstaaten ihre erste umfassende Verordnung für künstliche Intelligenz, das EU-KI-Gesetz, eingeführt. Das Gesetz fördert die Entwicklung vertrauenswürdiger künstlicher Intelligenz und mindert gleichzeitig ihre negativen Auswirkungen auf die ethischen Werte, Grundrechte und Sicherheit der EU.

Das neue KI-Gesetz verfolgt einen risikobasierten Regulierungsansatz und klassifiziert KI-Systeme in vier Kategorien: inakzeptabel, hoch, begrenzt und minimal. Die Anforderungen und Verpflichtungen für jede Kategorie variieren und sollen im Rahmen einer stufenweisen Einführung in Kraft treten, wobei die Mehrheit innerhalb von 24 Monaten ab dem Datum des Inkrafttretens gelten soll.
Die Nichteinhaltung des Gesetzes kann zu Strafen zwischen 7,5 Millionen EUR oder 1,5% des weltweiten Jahresumsatzes und 35 Millionen EUR oder 7% des weltweiten Jahresumsatzes führen. Die niedrigere Stufe gilt in der Regel für weniger schwerwiegende Verstöße, wie die Nichtkooperation mit Behörden. Die höhere Stufe gilt für schwerwiegende Verstöße, wie den Einsatz verbotener KI-Systeme. Artikel 2 des Gesetzes beschreibt Verpflichtungen für verschiedene Akteure in der KI-Lieferkette mit Verbindung zum EU-Markt, unabhängig von ihrem Standort, solange sie KI-Systeme entwickeln, vermarkten oder nutzen, die Personen innerhalb der EU betreffen.
Zusammenspiel zwischen dem EU-KI-Gesetz und der DSGVO
Das EU-KI-Gesetz erwähnt die EU-DSGVO, Verordnung (EU) 2016/679, 30 Mal in seinen 180 Erwägungsgründen und 113 Artikeln. Diese häufige Erwähnung ist zu erwarten, da KI-Modelle mit Datensätzen trainiert werden, die häufig personenbezogene Daten von Einzelpersonen enthalten. Datenbanken, die Kennungen wie Name, Standortdaten, menschliche Gesichter und Führerscheinnummern enthalten, gelten nach der DSGVO als personenbezogene Daten.
Wann immer personenbezogene Daten bei der Entwicklung oder Implementierung eines KI-Systems verwendet werden, müssen Unternehmen die mögliche Überschneidung zwischen den beiden Regelwerken beachten, um die Einhaltung zu gewährleisten und Strafen zu vermeiden. Während sich die DSGVO auf den Schutz personenbezogener Daten konzentriert, gilt das EU-KI-Gesetz sowohl für personenbezogene als auch für nicht personenbezogene Daten. Obwohl ihre Ansätze unterschiedlich sind, müssen Organisationen ihre Verpflichtungen sorgfältig abbilden, um zu bestimmen, welche ihrer Tätigkeiten von der DSGVO, dem EU-KI-Gesetz oder beiden geregelt werden.

Artikel 10(5) des EU-KI-Gesetzes schreibt vor, dass Trainings-, Validierungs- und Testdatensätze angemessenen Datenverwaltungs- und Managementpraktiken unterliegen müssen, die dem beabsichtigten Zweck des Hochrisiko-KI-Systems entsprechen, insbesondere um die Erkennung und Korrektur von Verzerrungen zu gewährleisten. Artikel 2(7) stellt klar, dass die Anwendung des EU-KI-Gesetzes die Verordnung (EU) 2016/679 (DSGVO) oder die Richtlinie 2002/58/EG (ePrivacy-Richtlinie) nicht beeinträchtigen soll, unbeschadet der Artikel 10(5) und 59.
Artikel 59 legt Regeln für die Verarbeitung personenbezogener Daten zur Entwicklung von Hochrisiko-KI-Systemen fest und etabliert Anforderungen für KI-Anbieter und -Implementierer, bestehende Datenschutzgesetze einzuhalten. Hier erfordert die Sicherstellung, dass ein KI-System fair und unvoreingenommen ist, daher auch die Einhaltung relevanter DSGVO-Anforderungen, einschließlich Rechtmäßigkeit, Fairness und Transparenz (Artikel 5(1)(a)); Datenminimierung (Artikel 5(1)(c)); Richtigkeit (Artikel 5(1)(d)); Verarbeitung besonderer Kategorien personenbezogener Daten (Artikel 9); Rechte der betroffenen Personen (Artikel 12-22); und Sicherheitsmaßnahmen (Artikel 32).
Artikel 9 der DSGVO ist besonders relevant bei der Verarbeitung besonderer Kategorien personenbezogener Daten, wie genetische und biometrische Daten, die durch das Gesetz verboten ist. Gemäß Artikel 6 DSGVO kann die Verarbeitung jedoch rechtmäßig sein, wenn sie keine sensiblen Attribute ableitet und geeignete Anonymisierungstechniken angewendet werden, um Daten nicht identifizierbar zu machen (Erwägungsgrund 26). In solchen Fällen gelten die Einschränkungen des Artikels 9 möglicherweise nicht.
Das EU-KI-Gesetz verbietet die Verwendung von KI-Systemen (Artikel 5), die verbotene KI-Praktiken beinhalten, wie biometrische Echtzeit-Identifizierung für Massenüberwachung in öffentlichen Räumen und ungezielte Erfassung von Gesichtsbildern aus dem Internet oder Überwachungskameras für Gesichtserkennungsdatenbanken. In dieser Hinsicht traten die ersten Anforderungen des EU-KI-Gesetzes, die verbotene KI-Praktiken untersagen, am 2. Februar 2025 in Kraft.
Artikel 6 des EU-KI-Gesetzes beschreibt die Schwellenwerte für die Einstufung von KI-Systemen als Hochrisiko. Das Gesetz spezifiziert in Anhang III acht verschiedene Kontexte, die allgemein als Hochrisiko gelten, wie das Management kritischer Infrastrukturen (z.B. KI-gesteuerte Verkehrsmanagementsysteme) und biometrische Identifikationssysteme, die nicht verboten sind (z.B. Erkennung von Fingerabdrücken oder Iris an Grenzkontrollen).

KI-Systeme, die ausschließlich zur Überprüfung der Identität einer Person im 1:1-Abgleich verwendet werden, d.h. zur Bestätigung, ob eine Person diejenige ist, die sie zu sein behauptet (z.B. Entsperren eines Telefons mit Gesichts- oder Fingerabdruckscan), gelten nicht als Hochrisiko. In einem 1:N-Abgleichsfall (zur Identifizierung einer Person aus einer Gruppe) stuft das Gesetz solche Systeme als Hochrisiko ein und stellt Anforderungen an Dokumentation, strenge Governance, Risikomanagement, Transparenz für andere und die Durchführung von Grundrechtsfolgenabschätzungen.
Um die Anforderungen für Hochrisiko-KI-Systeme zu erfüllen, insbesondere wenn biometrische, genetische oder allgemein andere sensible Daten zum Training der KI-Modelle verwendet werden, können KI-Entwickler Anonymisierungs-, Verschlüsselungs- oder Pseudonymisierungstechniken einsetzen. Dies gewährleistet die Einhaltung von:
- Daten-Governance & -Management (Artikel 10), das angemessene technische und organisatorische Maßnahmen (TOMs) zur Risikominimierung erfordert. Zum Beispiel sammelt ein Gesundheitstechnologieunternehmen Daten von Hunderten von Patienten, die deren Gesichtsmerkmale enthalten, um ein Hochrisiko-KI-System zu entwickeln und zu trainieren, das Hautkrankheiten diagnostiziert. Hier hilft das Verwischen von Gesichtsmerkmalen KI-Entwicklern, die übermäßige Erfassung von Daten zu verhindern (sicherstellen, dass nur der Hautteil sichtbar ist) und reduziert das Risiko der Identifizierung von Personen, wodurch deren Privatsphäre und Datenschutzrechte geschützt werden.
- Genauigkeit, Robustheit und Cybersicherheit (Artikel 15), die erfordern, dass KI-Systeme technisch robust und widerstandsfähig gegen Manipulationen sind. Anonymisierung kann in diesem Fall Entwicklern helfen, das Risiko unbefugten Zugriffs und Cyberrisiken zu reduzieren.
- Grundrechtsfolgenabschätzungen (FRIA), die von Anwendern von Hochrisiko-KI-Systemen verlangen, deren Auswirkungen auf Grundrechte zu bewerten. Wenn das System personenbezogene Daten verarbeitet, können Anonymisierungstechniken angewendet werden, um Risiken der Nichteinhaltung der DSGVO zu reduzieren. Wenn Daten auf irreversible Weise ordnungsgemäß anonymisiert werden, gelten sie gemäß der DSGVO als nicht personenbezogen. Wenn KI-Entwickler und -Anwender FRIA (Artikel 27) oder Konformitätsbewertungen (Artikel 43) durchführen, mindern sie das Risiko der Verletzung von Grundrechten und müssen nachweisen, dass das Risiko einer Re-Identifizierung auf ein Minimum reduziert ist.
- Erwägungsgrund 59 betont die Notwendigkeit des Rechts auf Privatsphäre und die Gewährleistung des Schutzes personenbezogener Daten während des gesamten Lebenszyklus des KI-Systems, was die Berücksichtigung von DSGVO-Prinzipien wie Datenschutz durch Design und durch Voreinstellung erfordert. Das bedeutet zum Beispiel, dass, wenn ein Automobilunternehmen Straßen aufzeichnet, um Datensätze für das Training autonomer Fahrzeuge oder Fahrassistenzsysteme (ADAS) zu erstellen, die Daten anonymisiert werden müssen (Gesichter und Kennzeichen in den Aufnahmen unkenntlich gemacht).
Ermöglichung der KI-Konformität mit der fortschrittlichen Anonymisierung von Gallio.pro
Das EU-KI-Gesetz legt strenge Anforderungen für die Verarbeitung personenbezogener Daten beim Training von KI-Systemen fest. Es wird zweifellos tiefgreifende Auswirkungen darauf haben, wie KI-Entwickler den Schutz der Datenprivatsphäre mit der Bewahrung der für das KI-Training kritischen Daten in Einklang bringen. Gallio.pro überzeugt durch die Maskierung personenidentifizierbarer Daten wie Kennzeichen und Gesichter, wodurch Sie die Leistung des KI-Modells aufrechterhalten können, während Sie die Datenschutzbestimmungen einhalten. Unsere Anonymisierungslösungen können Ihnen helfen, die strengen Anforderungen für Hochrisiko-KI-Systeme zu erfüllen und das Risiko rechtlicher und regulatorischer Komplikationen zu mindern.