Künstliche Intelligenz in der Datensicherheit - Definition
Künstliche Intelligenz (KI) in der Datensicherheit bezeichnet den Einsatz von Methoden des Machine Learning und Deep Learning zur Identifikation, Klassifizierung, Verarbeitung und zum Schutz von Informationen, um Risiken für Vertraulichkeit, Integrität und Verfügbarkeit zu minimieren. Im Kontext der Anonymisierung von Fotos und Videos geht es insbesondere um die automatische Erkennung identifizierbarer Merkmale - vor allem Gesichter und Kfz-Kennzeichen - sowie deren Verfremdung (z. B. Unschärfe, Verpixelung) im Einklang mit dem Grundsatz der Datenminimierung und „Privacy by Design“ (Art. 5 und Art. 25 DSGVO - Verordnung (EU) 2016/679).
Den Rahmen für einen sicheren KI-Einsatz bilden zudem internationale Normen wie ISO/IEC 23894:2023 zum KI-Risikomanagement sowie ISO/IEC 27001:2022 für Informationssicherheits-Managementsysteme (ISMS).
Die Rolle von KI bei der Anonymisierung von Bildern und Videos
Bei der Bild- und Videoanonymisierung fungiert KI als Detektions- und Entscheidungsebene. Deep-Learning-Modelle, die mit umfangreichen Datensätzen von Gesichtern und Kennzeichen trainiert wurden, erkennen diese Objekte unter unterschiedlichen Bedingungen. Anschließend wenden Transformationsalgorithmen gezielt Unschärfe oder Pixelierung an.
Voraussetzung ist ein vorab mit repräsentativen Daten trainiertes Modell - andernfalls bleibt die Erkennung unvollständig, was das Risiko einer Offenlegung personenbezogener Daten erhöht. In der Praxis umfasst dies:
- Objekterkennung von Gesichtern und Kfz-Kennzeichen mittels Convolutional Neural Networks oder Vision-Transformer-Modellen,
- Objekt-Tracking zur Stabilisierung der Masken in Videosequenzen,
- Bildverarbeitungsfilter zur gezielten Verfremdung auf Pixelebene.
On-Premise-Lösungen wie Gallio PRO automatisieren das Verpixeln von Gesichtern und Kennzeichen. Weitere Elemente (z. B. Logos, Tattoos, Namensschilder oder Dokumente) können manuell im Editor anonymisiert werden. Diese Aufteilung reduziert den Umfang der Datenverarbeitung und erleichtert die Risikobewertung gemäß „Privacy by Design“ (Art. 25 DSGVO) sowie den Leitlinien des Europäischen Datenschutzausschusses (EDSA, Leitlinien 3/2019 zu Videoüberwachung).
Technologien und Architekturen (Computer Vision)
KI-Lösungen zur Anonymisierung basieren auf etablierten Paradigmen der Computer Vision. Die Wahl der Technologie beeinflusst Erkennungsgenauigkeit, Geschwindigkeit und das Restrisiko einer Datenoffenlegung. Typische Komponenten sind:
- Objektdetektoren: z. B. RetinaFace (Deng et al., 2019) für Gesichtserkennung sowie YOLO-Modelle für Kennzeichenerkennung; Ausgabe von Bounding Boxes und Konfidenzwerten (AP/mAP als Standardmetriken; WIDER FACE Benchmark),
- Segmentierung und Landmarken: präzise Gesichtsmasken für bessere Abdeckung bei Teilverdeckungen,
- Video-Tracking: Algorithmen wie SORT oder DeepSORT zur Reduzierung von Maskenflackern,
- Bildverarbeitung: Gaußsche Unschärfe, Verpixelung oder Ersetzen durch neutrale Flächen - die Wahl beeinflusst Rekonstruktionsrisiko und Kontextlesbarkeit,
- MLOps On-Premise: Modellversionierung, Änderungsvalidierung, reproduzierbare Builds und isolierte Umgebungen gemäß ISO/IEC 27001:2022.
Zentrale Parameter und Metriken (visuelle Anonymisierung)
Die Wirksamkeit und operative Sicherheit von KI-Systemen zur Gesichts- und Kennzeichenanonymisierung müssen messbar und dokumentierbar sein. Schwellenwerte hängen vom jeweiligen Risikokontext ab und sollten aus einer strukturierten Risikobewertung abgeleitet werden (ISO/IEC 23894:2023; NIST AI RMF 1.0, 2023).
Metrik | Beschreibung | Anwendungshinweise | Quelle/Standard
|
|---|---|---|---|
Precision/Recall (Detektion) | Anteil korrekter und vollständiger Erkennungen | Klassenbezogen (Gesicht, Kennzeichen); IoU und Konfidenzschwelle offenlegen | WIDER FACE, COCO |
mAP@IoU | Mittlere Präzision bei definiertem IoU-Wert | IoU-Wert (z. B. 0,5) und PR-Kurven dokumentieren | COCO Evaluation |
False-Negative-Rate | Anteil nicht erkannter Objekte | Kritisch für das Risiko der Datenoffenlegung | NIST AI RMF 1.0 |
Latenz | Verarbeitungszeit pro Bild/Frame | Hardwarekonfiguration und Batch-Größe angeben | ISO/IEC 25010 (Leistungsmerkmale) |
Maskenstabilität | Anteil der Frames ohne Maskenflackern | Sequenztests mit Tracking erforderlich | NIST SP 800-53 rev. 5 |
Rekonstruktionsresistenz | Prüfung der Wiederherstellbarkeit identifizierbarer Merkmale | Simulation von Rekonstruktionsangriffen und Risikobewertung | ISO/IEC 20889:2018 |
Herausforderungen und Grenzen (Risiko und Compliance)
Der Einsatz von Künstlicher Intelligenz in der Datensicherheit bei Bild- und Videomaterial ist mit technischen und rechtlichen Risiken verbunden. Unterschiedliche Lichtverhältnisse, Kompression, Teilverdeckungen oder große Distanzen erhöhen die Wahrscheinlichkeit unvollständiger Erkennung. Zudem können Modelle außerhalb ihrer Trainingsdomäne an Generalisierungsfähigkeit verlieren, was kontinuierliche Validierung und Nachtraining erfordert.
Aus Compliance-Sicht weist der EDSA darauf hin, dass Bildaufnahmen personenbezogene Daten darstellen können. Die Verarbeitung von Videomaterial muss daher DSGVO-konform erfolgen und einer Prüfung von Erforderlichkeit und Verhältnismäßigkeit standhalten (EDSA, Leitlinien 3/2019). In Deutschland und anderen EU-Staaten wird die Veröffentlichung von Kfz-Kennzeichen zunehmend kritisch bewertet, weshalb deren Schwärzung häufig empfohlen wird. Solche Unterschiede sind in Risikoanalysen und Veröffentlichungsrichtlinien zu berücksichtigen.
Praxisbeispiele (Anonymisierung von Gesichtern und Kennzeichen)
KI-gestützte Videoanonymisierung wird vor allem in standardisierten Prozessen eingesetzt, bei denen Effizienz und Konsistenz entscheidend sind. Typische On-Premise-Szenarien ohne Echtzeit- oder Streaming-Verarbeitung sind:
- Videoarchive - automatisiertes Verpixeln von Gesichtern und Kennzeichen vor Weitergabe an Dritte,
- Forschung und Audits - Vorbereitung von Bild- und Videomaterial für Berichte unter Beachtung der Datenminimierung,
- Medien und Kommunikation - Veröffentlichung von Aufnahmen öffentlicher Ereignisse unter Berücksichtigung datenschutzrechtlicher Vorgaben,
- Auskunftsersuchen - selektive Anonymisierung unbeteiligter Personen vor Herausgabe von Material.
Gallio PRO anonymisiert Gesichter und Kennzeichen automatisch; weitere Elemente werden manuell im Editor bearbeitet. Die Software arbeitet vollständig On-Premise und unterstützt weder Echtzeit- noch Streaming-Anonymisierung. Es werden keine Protokolle gespeichert, die Gesichtserkennungen, Kennzeichenerkennungen oder personenbezogene Daten enthalten.
Normative Referenzen und Leitlinien
Der sachgerechte Einsatz von KI in der Datensicherheit bei Bild- und Videodaten sollte sich an anerkannten Standards und Leitlinien orientieren:
- DSGVO - Verordnung (EU) 2016/679: Art. 5, Art. 25, Erwägungsgrund 26 (Anonymisierung),
- EDSA, Leitlinien 3/2019 zur Verarbeitung personenbezogener Daten durch Videoüberwachungssysteme (finale Fassung vom 29.01.2020),
- ISO/IEC 27001:2022 - Informationssicherheits-Managementsysteme,
- ISO/IEC 23894:2023 - KI-Risikomanagement,
- ISO/IEC 20889:2018 - Datenschutztechniken und Reduzierung der Identifizierbarkeit,
- ISO/IEC 22989:2022 und ISO/IEC 23053:2022 - Terminologie und Lebenszyklus von KI-Systemen,
- NIST AI Risk Management Framework 1.0 (2023),
- NIST SP 800-53 rev. 5 (2020).