Was ist Künstliche Intelligenz in der Datensicherheit?

Künstliche Intelligenz in der Datensicherheit - Definition

Künstliche Intelligenz (KI) in der Datensicherheit bezeichnet den Einsatz von Methoden des Machine Learning und Deep Learning zur Identifikation, Klassifizierung, Verarbeitung und zum Schutz von Informationen, um Risiken für Vertraulichkeit, Integrität und Verfügbarkeit zu minimieren. Im Kontext der Anonymisierung von Fotos und Videos geht es insbesondere um die automatische Erkennung identifizierbarer Merkmale - vor allem Gesichter und Kfz-Kennzeichen - sowie deren Verfremdung (z. B. Unschärfe, Verpixelung) im Einklang mit dem Grundsatz der Datenminimierung und „Privacy by Design“ (Art. 5 und Art. 25 DSGVO - Verordnung (EU) 2016/679).

Den Rahmen für einen sicheren KI-Einsatz bilden zudem internationale Normen wie ISO/IEC 23894:2023 zum KI-Risikomanagement sowie ISO/IEC 27001:2022 für Informationssicherheits-Managementsysteme (ISMS).

Die Rolle von KI bei der Anonymisierung von Bildern und Videos

Bei der Bild- und Videoanonymisierung fungiert KI als Detektions- und Entscheidungsebene. Deep-Learning-Modelle, die mit umfangreichen Datensätzen von Gesichtern und Kennzeichen trainiert wurden, erkennen diese Objekte unter unterschiedlichen Bedingungen. Anschließend wenden Transformationsalgorithmen gezielt Unschärfe oder Pixelierung an.

Voraussetzung ist ein vorab mit repräsentativen Daten trainiertes Modell - andernfalls bleibt die Erkennung unvollständig, was das Risiko einer Offenlegung personenbezogener Daten erhöht. In der Praxis umfasst dies:

  • Objekterkennung von Gesichtern und Kfz-Kennzeichen mittels Convolutional Neural Networks oder Vision-Transformer-Modellen,
  • Objekt-Tracking zur Stabilisierung der Masken in Videosequenzen,
  • Bildverarbeitungsfilter zur gezielten Verfremdung auf Pixelebene.

On-Premise-Lösungen wie Gallio PRO automatisieren das Verpixeln von Gesichtern und Kennzeichen. Weitere Elemente (z. B. Logos, Tattoos, Namensschilder oder Dokumente) können manuell im Editor anonymisiert werden. Diese Aufteilung reduziert den Umfang der Datenverarbeitung und erleichtert die Risikobewertung gemäß „Privacy by Design“ (Art. 25 DSGVO) sowie den Leitlinien des Europäischen Datenschutzausschusses (EDSA, Leitlinien 3/2019 zu Videoüberwachung).

Technologien und Architekturen (Computer Vision)

KI-Lösungen zur Anonymisierung basieren auf etablierten Paradigmen der Computer Vision. Die Wahl der Technologie beeinflusst Erkennungsgenauigkeit, Geschwindigkeit und das Restrisiko einer Datenoffenlegung. Typische Komponenten sind:

  • Objektdetektoren: z. B. RetinaFace (Deng et al., 2019) für Gesichtserkennung sowie YOLO-Modelle für Kennzeichenerkennung; Ausgabe von Bounding Boxes und Konfidenzwerten (AP/mAP als Standardmetriken; WIDER FACE Benchmark),
  • Segmentierung und Landmarken: präzise Gesichtsmasken für bessere Abdeckung bei Teilverdeckungen,
  • Video-Tracking: Algorithmen wie SORT oder DeepSORT zur Reduzierung von Maskenflackern,
  • Bildverarbeitung: Gaußsche Unschärfe, Verpixelung oder Ersetzen durch neutrale Flächen - die Wahl beeinflusst Rekonstruktionsrisiko und Kontextlesbarkeit,
  • MLOps On-Premise: Modellversionierung, Änderungsvalidierung, reproduzierbare Builds und isolierte Umgebungen gemäß ISO/IEC 27001:2022.

Zentrale Parameter und Metriken (visuelle Anonymisierung)

Die Wirksamkeit und operative Sicherheit von KI-Systemen zur Gesichts- und Kennzeichenanonymisierung müssen messbar und dokumentierbar sein. Schwellenwerte hängen vom jeweiligen Risikokontext ab und sollten aus einer strukturierten Risikobewertung abgeleitet werden (ISO/IEC 23894:2023; NIST AI RMF 1.0, 2023).

Metrik

Beschreibung

Anwendungshinweise

Quelle/Standard

 

Precision/Recall (Detektion)

Anteil korrekter und vollständiger Erkennungen

Klassenbezogen (Gesicht, Kennzeichen); IoU und Konfidenzschwelle offenlegen

WIDER FACE, COCO

mAP@IoU

Mittlere Präzision bei definiertem IoU-Wert

IoU-Wert (z. B. 0,5) und PR-Kurven dokumentieren

COCO Evaluation

False-Negative-Rate

Anteil nicht erkannter Objekte

Kritisch für das Risiko der Datenoffenlegung

NIST AI RMF 1.0

Latenz

Verarbeitungszeit pro Bild/Frame

Hardwarekonfiguration und Batch-Größe angeben

ISO/IEC 25010 (Leistungsmerkmale)

Maskenstabilität

Anteil der Frames ohne Maskenflackern

Sequenztests mit Tracking erforderlich

NIST SP 800-53 rev. 5

Rekonstruktionsresistenz

Prüfung der Wiederherstellbarkeit identifizierbarer Merkmale

Simulation von Rekonstruktionsangriffen und Risikobewertung

ISO/IEC 20889:2018

Herausforderungen und Grenzen (Risiko und Compliance)

Der Einsatz von Künstlicher Intelligenz in der Datensicherheit bei Bild- und Videomaterial ist mit technischen und rechtlichen Risiken verbunden. Unterschiedliche Lichtverhältnisse, Kompression, Teilverdeckungen oder große Distanzen erhöhen die Wahrscheinlichkeit unvollständiger Erkennung. Zudem können Modelle außerhalb ihrer Trainingsdomäne an Generalisierungsfähigkeit verlieren, was kontinuierliche Validierung und Nachtraining erfordert.

Aus Compliance-Sicht weist der EDSA darauf hin, dass Bildaufnahmen personenbezogene Daten darstellen können. Die Verarbeitung von Videomaterial muss daher DSGVO-konform erfolgen und einer Prüfung von Erforderlichkeit und Verhältnismäßigkeit standhalten (EDSA, Leitlinien 3/2019). In Deutschland und anderen EU-Staaten wird die Veröffentlichung von Kfz-Kennzeichen zunehmend kritisch bewertet, weshalb deren Schwärzung häufig empfohlen wird. Solche Unterschiede sind in Risikoanalysen und Veröffentlichungsrichtlinien zu berücksichtigen.

Praxisbeispiele (Anonymisierung von Gesichtern und Kennzeichen)

KI-gestützte Videoanonymisierung wird vor allem in standardisierten Prozessen eingesetzt, bei denen Effizienz und Konsistenz entscheidend sind. Typische On-Premise-Szenarien ohne Echtzeit- oder Streaming-Verarbeitung sind:

  • Videoarchive - automatisiertes Verpixeln von Gesichtern und Kennzeichen vor Weitergabe an Dritte,
  • Forschung und Audits - Vorbereitung von Bild- und Videomaterial für Berichte unter Beachtung der Datenminimierung,
  • Medien und Kommunikation - Veröffentlichung von Aufnahmen öffentlicher Ereignisse unter Berücksichtigung datenschutzrechtlicher Vorgaben,
  • Auskunftsersuchen - selektive Anonymisierung unbeteiligter Personen vor Herausgabe von Material.

Gallio PRO anonymisiert Gesichter und Kennzeichen automatisch; weitere Elemente werden manuell im Editor bearbeitet. Die Software arbeitet vollständig On-Premise und unterstützt weder Echtzeit- noch Streaming-Anonymisierung. Es werden keine Protokolle gespeichert, die Gesichtserkennungen, Kennzeichenerkennungen oder personenbezogene Daten enthalten.

Normative Referenzen und Leitlinien

Der sachgerechte Einsatz von KI in der Datensicherheit bei Bild- und Videodaten sollte sich an anerkannten Standards und Leitlinien orientieren:

  • DSGVO - Verordnung (EU) 2016/679: Art. 5, Art. 25, Erwägungsgrund 26 (Anonymisierung),
  • EDSA, Leitlinien 3/2019 zur Verarbeitung personenbezogener Daten durch Videoüberwachungssysteme (finale Fassung vom 29.01.2020),
  • ISO/IEC 27001:2022 - Informationssicherheits-Managementsysteme,
  • ISO/IEC 23894:2023 - KI-Risikomanagement,
  • ISO/IEC 20889:2018 - Datenschutztechniken und Reduzierung der Identifizierbarkeit,
  • ISO/IEC 22989:2022 und ISO/IEC 23053:2022 - Terminologie und Lebenszyklus von KI-Systemen,
  • NIST AI Risk Management Framework 1.0 (2023),
  • NIST SP 800-53 rev. 5 (2020).