Deep Learning - Definition
Deep Learning ist ein Teilbereich des maschinellen Lernens, der mehrschichtige künstliche neuronale Netze nutzt, um Datenrepräsentationen zu erlernen und komplexe Wahrnehmungsaufgaben wie Objekterkennung, Bildsegmentierung und Bildklassifikation zu lösen. Diese Definition findet sich unter anderem in der Norm ISO/IEC 22989:2022, die zentrale Begriffe der künstlichen Intelligenz systematisiert (Quelle: ISO/IEC 22989:2022). Im Kontext der Bild- und Videoanonymisierung bildet Deep Learning die Grundlage für das Training von Modellen zur Gesichtserkennung und Kennzeichenerkennung, die anschließend eine automatische Verpixelung oder Unkenntlichmachung dieser Bereiche ermöglichen - unter Wahrung der Konsistenz und der datenschutzrechtlichen Vorgaben.
Die Rolle von Deep Learning bei der Bild- und Videoanonymisierung
Um Gesichter und Kfz-Kennzeichen zuverlässig zu verpixeln oder zu verwischen, sind leistungsfähige Detektionsmodelle erforderlich, die sowohl auf Einzelbildern als auch auf Videosequenzen arbeiten. Deep Learning stellt solche Modelle bereit - etwa durch konvolutionale und hybride Architekturen, die Objekte unter unterschiedlichen Lichtverhältnissen, Perspektiven und Maßstäben erkennen können. In Gallio PRO dienen Deep-Learning-Modelle der automatischen Identifikation von Gesichtern und Nummernschildern; anschließend wird ein Unschärfe- oder Mosaikfilter angewendet. Die Software erkennt keine Logos, Tätowierungen, Namensschilder oder Bildschirminhalte automatisch - diese Elemente können im manuellen Editor unkenntlich gemacht werden. Gallio PRO unterstützt keine Echtzeit-Anonymisierung und verarbeitet keinen Live-Videostream. Die Automatisierung beschränkt sich ausschließlich auf Gesichter und Kennzeichen.
Deep-Learning-Technologien zur Unkenntlichmachung von Gesichtern und Kennzeichen
Die Erkennung der zu anonymisierenden Bereiche basiert auf etablierten Modellklassen und Evaluationsverfahren. Nachfolgend sind die gängigsten Ansätze einschließlich wissenschaftlicher Quellen und Bewertungsstandards aufgeführt.
- Gesichtserkennung: Ein-Schritt-Detektoren auf Basis konvolutionaler neuronaler Netze, z. B. RetinaFace und SCRFD, kombinieren Merkmalsextraktion mit der Detektion von Landmarken. Dadurch wird eine stabile Maskierung auch bei geneigter Kopfhaltung ermöglicht (Quellen: Deng et al., CVPR 2020 - RetinaFace; Guo et al., 2021 - SCRFD; Datensatz WIDER FACE - Yang et al., 2016).
- Kennzeichenerkennung: Zum Einsatz kommen allgemeine Objektdetektoren, die auf die Klasse „license plate“ angepasst sind, sowie spezialisierte Lösungen im Rahmen von ALPR-Systemen (Automatic License Plate Recognition). Für Forschung und Validierung werden öffentliche Datensätze wie UFPR-ALPR und AOLP verwendet (Quellen: Gonçalves et al., 2018 - UFPR-ALPR; Hsieh et al., 2011 - AOLP).
- Video-Tracking: Nach der Detektion in aufeinanderfolgenden Frames werden Assoziationsalgorithmen wie DeepSORT oder ByteTrack eingesetzt, um eine kontinuierliche Maskierung desselben Objekts über die gesamte Sequenz hinweg sicherzustellen und Flackern zu reduzieren (Quellen: Wojke et al., 2017 - DeepSORT; Zhang et al., 2022 - ByteTrack).
- Pre- und Postprocessing: Eingabenormalisierung, maßvolle Bildskalierung, Non-Maximum Suppression (NMS) oder Soft-NMS zur Reduktion doppelter Detektionen sowie deterministische Unschärfe- oder Mosaikfilter auf definierten Bereichen. Die Evaluierung erfolgt gemäß VOC- und COCO-Methodik mithilfe von IoU und mAP (Quellen: Everingham et al., IJCV 2015 - PASCAL VOC; Lin et al., ECCV 2014 - COCO).
Wichtige Parameter und Metriken (Deep Learning für Anonymisierung)
In der Praxis benötigen Datenschutzbeauftragte und technische Teams messbare Kriterien. Die folgenden Metriken und Attribute helfen zu bewerten, ob ein auf Deep Learning basierendes Anonymisierungssystem die erwartete Qualitäts- und Sicherheitsstufe erreicht.
Metrik/Attribut | Definition | Messmethode | Bedeutung für die Anonymisierung
|
|---|---|---|---|
Precision und Recall | Precision - Anteil der Detektionen, die tatsächliche Treffer sind. Recall - Anteil der korrekt erkannten Objekte. | Messung auf validierten Datensätzen mit Annotationen. Gemäß VOC/COCO gilt ein Objekt als erkannt, wenn der IoU-Wert den definierten Schwellenwert überschreitet (VOC historisch IoU=0,5; COCO verwendet durchschnittliche AP-Werte für IoU 0,5-0,95 in 0,05-Schritten). | Bei der Anonymisierung hat ein hoher Recall Priorität, um das Risiko nicht unkenntlich gemachter Gesichter oder Kennzeichen zu minimieren. |
mAP | Mean Average Precision - durchschnittliche Präzision über Klassen hinweg; bei COCO zusätzlich über mehrere IoU-Schwellen gemittelt. | mAP@0,5 (VOC) oder mAP@[0,5:0,95] (COCO) gemäß standardisierten Evaluationsprotokollen. | Umfassende Bewertung der Leistungsfähigkeit von Gesichts- und Kennzeichendetektoren. |
IoU | Intersection over Union - Maß für die Überlappung von Vorhersage und Annotation. IoU = Schnittmenge / Vereinigungsmenge. | Berechnung pro Objekt; der Schwellenwert hängt von Anwendung und Fehlertoleranz ab. | Ein höherer IoU-Wert bedeutet präzisere Masken und ein geringeres Risiko der Offenlegung von Bilddetails. |
Latenz und FPS | Verarbeitungsverzögerung pro Frame und Durchsatz in Bildern pro Sekunde. | End-to-End-Messung auf der Zielinfrastruktur (On-Premise) mit repräsentativen Auflösungen. | Beeinflusst die Projektlaufzeit und die Ressourcenplanung - auch wenn Gallio PRO nicht im Echtzeitmodus arbeitet. |
Tracking-Stabilität | Qualität der Identitätserhaltung von Objektspuren zwischen Frames im Multi-Object-Tracking. | Kennzahlen wie IDF1 oder HOTA gemäß gängigen MOT-Standards. | Reduziert Flackern und Unterbrechungen der Maskierung in längeren Sequenzen. |
Daten-Drift | Veränderung der Eingabedatenverteilung im Vergleich zum Trainingsdatensatz. | Monitoring statistischer Kennwerte und regelmäßige Validierung gemäß ISO/IEC 23053:2022. | Verhindert Recall-Verluste bei neuen Kameratypen, Nachtszenen oder anderen Einsatzumgebungen. |
Herausforderungen und Grenzen
Die Wirksamkeit von Deep Learning bei der Anonymisierung hängt von Datenqualität, Modellwahl und Risikokontrolle ab. Die folgenden Aspekte sind bei Konzeption und Auditierung zu berücksichtigen.
- Schwierige Bedingungen: Starke Kamerabewegung, Bewegungsunschärfe, extreme Blickwinkel oder Teilverdeckungen erschweren die Detektion. Geeignete Architekturen und Trainingsaugmentierungen sind entscheidend (vgl. WIDER FACE).
- Domänen-Drift: Neue Kameratypen, Kompression, IR-Beleuchtung oder unterschiedliche Kennzeichenformate können den Recall reduzieren. Regelmäßige Validierung und ggf. Nachtraining sind erforderlich (ISO/IEC 23053:2022).
- Datenschutzrisiko: Falsch-negative Ergebnisse bergen das Risiko eines DSGVO-Verstoßes. In der Praxis werden defensive Strategien angewandt, etwa niedrigere Konfidenzschwellen für die Klasse „face“ sowie Stichprobenprüfungen durch einen Operator (Privacy by Design - Art. 25 DSGVO).
- Rechtliche Aspekte: Der EDPB weist in den Leitlinien 3/2019 darauf hin, dass das Bild einer Person sowie kontextabhängig auch ein Kfz-Kennzeichen personenbezogene Daten darstellen können. Dies rechtfertigt eine Anonymisierung vor der Weitergabe von Aufnahmen. Aufgrund unterschiedlicher Auslegungen in einzelnen Jurisdiktionen sollte eine vorsorgliche, an der Datenminimierung orientierte Praxis verfolgt werden (Art. 5 Abs. 1 lit. c DSGVO).
- Funktionale Grenzen: Gallio PRO anonymisiert automatisch ausschließlich Gesichter und Kennzeichen. Andere Elemente können manuell maskiert werden. Die Software wird On-Premise betrieben und speichert keine Protokolle mit Detektionen oder personenbezogenen Daten.
Anwendungsbeispiele und operative Praxis in Gallio PRO
Ein typischer Verarbeitungsprozess umfasst die Vorbereitung des Materials, die Modellinferenz und die Validierung. Die On-Premise-Version ermöglicht vollständige Datenkontrolle und unterstützt die Einhaltung von Art. 32 DSGVO sowie bewährter Praktiken im KI-Risikomanagement.
- Vorbereitung: Import des Materials, Auswahl des Anonymisierungsprofils, Konfiguration des Filtertyps (Unschärfe, Mosaik) und eventueller Ausnahmen.
- Inferenz: Detektion von Gesichtern und Kennzeichen, frameübergreifende Assoziation, stabile Maskenerstellung und Anwendung des visuellen Effekts. Keine Live-Verarbeitung. Batch-Verarbeitung mit lokal verfügbaren GPU-/CPU-Ressourcen möglich.
- Qualitätskontrolle: Stichprobenprüfung und bei Bedarf manuelle Korrektur im Editor. Bei erhöhtem Risiko werden statistische Stichproben und Berichte zu Recall/Precision empfohlen.
- Lebenszyklusmanagement: Überwachung von Daten-Drift, Modellaktualisierungen gemäß ISO/IEC 23053:2022 sowie Risikomanagement nach ISO/IEC 23894:2023 und NIST AI RMF 1.0 (2023).
Normative Referenzen und Quellen
- ISO/IEC 22989:2022 - Information technology - Artificial intelligence - Concepts and terminology.
- ISO/IEC 23053:2022 - Framework for AI systems using machine learning.
- ISO/IEC 23894:2023 - Artificial intelligence - Risk management.
- ISO/IEC 20889:2018 - Privacy enhancing data de-identification terminology.
- Verordnung (EU) 2016/679 (DSGVO), insbesondere Art. 4 Abs. 1, Art. 5 Abs. 1 lit. c, Art. 25, Art. 32.
- EDPB, Guidelines 3/2019 on processing of personal data through video devices.
- NIST AI Risk Management Framework 1.0, 2023.
- Everingham et al., PASCAL VOC, IJCV 2015.
- Lin et al., Microsoft COCO, ECCV 2014.
- Yang et al., WIDER FACE, CVPR 2016.
- Deng et al., RetinaFace, CVPR 2020.
- Guo et al., SCRFD, 2021.
- Wojke et al., DeepSORT, 2017.
- Zhang et al., ByteTrack, ECCV 2022.
- Gonçalves et al., UFPR-ALPR, 2018.
- Hsieh et al., AOLP, 2011.