Gesichtsverpixelung für Datenschutz im Deep Learning

Mateusz Zimoch
Veröffentlicht: 4.12.2025
Aktualisiert: 10.3.2026

Die Gesichtsverpixelung ist eine Technik zur visuellen Datenanonymisierung, bei der menschliche Gesichter in Fotos oder Videos erkannt und unkenntlich gemacht werden, sodass Personen nicht identifiziert werden können. In Deep-Learning-Workflows reduzieren Gesichtsverpixelung und Kennzeichenverpixelung das Risiko, dass veröffentlichte Bilder personenbezogene Daten offenlegen. Allerdings macht eine Verpixelung Daten nicht automatisch im Sinne des Datenschutzrechts „anonym“. Ergebnisse fallen nur dann außerhalb des Datenschutzrechts, wenn Personen nicht mehr mit Mitteln identifizierbar sind, die vernünftigerweise eingesetzt werden können, unter Berücksichtigung aller Mittel, die vom Verantwortlichen oder von Dritten wahrscheinlich genutzt werden [1][6].

Unscharfes Graustufenbild einer Person mit langen Haaren, die ein eng anliegendes Kleid trägt und in einem Innenraum mit heller Beleuchtung im Hintergrund steht.

Warum Gesichtsverpixelung für die Compliance wichtig ist

Bilder und Videos sind personenbezogene Daten, wenn eine Person direkt oder indirekt identifiziert werden kann [1]. Aufsichtsbehörden unterscheiden zwischen Anonymisierung und Pseudonymisierung. Anonymisierte Bilder sind so verarbeitet, dass Personen mit keinen vernünftigerweise zu erwartenden Mitteln identifizierbar sind. Pseudonymisierte Bilder können mit zusätzlichen Informationen wieder einer Person zugeordnet werden und fallen weiterhin in den Anwendungsbereich des Datenschutzrechts [1][6].

Gesichtsverpixelung kann zur Anonymisierung beitragen, indem sie Gesichtserkennungsmerkmale reduziert. Wirksame Umsetzungen berücksichtigen jedoch auch andere Identifikatoren wie einzigartige Tätowierungen, auffällige Kleidung, Stimme (bei Video), Ortskontext oder Kfz-Kennzeichen. Bleibt ein Identifikator bestehen, der eine Identifizierung ermöglicht, kann das Ergebnis weiterhin personenbezogene Daten enthalten [1][6][8].

verschwommenes Gesicht in der Kontur eines Mannes in einem Polohemd vor einer Wand, Schwarzweißfoto

Veröffentlichung von Bildern - DSGVO und UK GDPR im Überblick

Thema

EU-DSGVO

UK GDPR

 

Sind Bilder personenbezogene Daten?

Ja, wenn eine Person identifizierbar ist [1]

Ja, wenn eine Person identifizierbar ist [2][3]

Anonymisierte Ergebnisse

Außerhalb der DSGVO nur bei irreversibler Anonymisierung (d. h. Personen sind mit vernünftigerweise zu erwartenden Mitteln nicht identifizierbar) [1][6]

Außerhalb der UK GDPR nur bei irreversibler Anonymisierung (d. h. Personen sind mit vernünftigerweise zu erwartenden Mitteln nicht identifizierbar) [2][6]

Rechtsgrundlage zur Veröffentlichung identifizierbarer Bilder

Kontextabhängig; häufig Einwilligung oder berechtigte Interessen mit dokumentierter Interessenabwägung [1][4][7]

Kontextabhängig; häufig Einwilligung oder berechtigte Interessen mit dokumentierter Interessenabwägung [2][4]

Bilder von Kindern

Höheres Risiko; oft strengere Begründung und Schutzmaßnahmen erforderlich [1]

Höheres Risiko; das ICO erwartet besondere Sorgfalt und Schutzmaßnahmen [4]

Leitlinien zur Videoüberwachung

EDPB-Leitlinien zu Videogeräten [8]

ICO-Leitlinien zu CCTV und Videoüberwachung [5]

Grenzüberschreitende Übermittlungen

Übermittlungsregeln gelten bei personenbezogenen Daten; echte Anonymisierung fällt außerhalb der DSGVO [1]

UK-Übermittlungsregeln gelten bei personenbezogenen Daten; echte Anonymisierung fällt außerhalb der UK GDPR [2]

schwarz-weißes Foto mit anonymisiertem Gesicht einer Frau mit dunklen Haaren, Dokumentenfoto

Drei Fälle, in denen Einwilligung oder Anonymisierung möglicherweise nicht erforderlich ist

  • Die Person ist allgemein bekannt (Person des öffentlichen Lebens) und das Bild steht im Zusammenhang mit ihrer öffentlichen Rolle.
  • Die Person erscheint nur beiläufig als Teil einer größeren Szene (z. B. eine Menschenmenge bei einer öffentlichen Veranstaltung) und ist nicht der Fokus des Bildes.
  • Die Person wurde für das Posieren bezahlt und ein Vertrag bzw. Model Release deckt die vorgesehenen Nutzungen ab.

Hinweis: Dies sind keine „automatischen Ausnahmen“ nach DSGVO/UK GDPR. Ob eine Einwilligung erforderlich ist, hängt von der Rechtsgrundlage, lokalen Gesetzen (einschließlich Bildnisrechten), den berechtigten Erwartungen sowie Fairness- und Transparenzpflichten ab [1][4].

Unscharfes Schwarz-Weiß-Bild einer Person mit langen, lockigen Haaren. Das Gesicht ist stark unscharf und undeutlich.

Risiken, die Unternehmen bei Gesichts- und Kennzeichenverpixelung häufig übersehen

Re-Identifikationsrisiko - Selbst bei verpixelten Gesichtern können Personen anhand einzigartiger Kleidung, Gangart, Accessoires, Tätowierungen, Stimme oder anhand von Hintergrundmerkmalen wie Geschäften, Hausnummern oder markanten Orten identifiziert werden. In Straßenszenen wird Gesichtsverpixelung daher häufig mit Kennzeichenverpixelung kombiniert.

Metadaten-Exposition - EXIF- und XMP-Metadaten können Zeitstempel, GPS-Koordinaten, Gerätekennungen oder Autorennotizen enthalten. Das Entfernen von Metadaten vor der Veröffentlichung ist eine gängige Maßnahme zur Risikominimierung.

Erkennungsfehler - Falsch-negative Ergebnisse lassen Gesichter oder Kennzeichen unverpixelt. Falsch-positive Ergebnisse können Logos oder Objekte unkenntlich machen und die Nutzbarkeit beeinträchtigen. Die Erkennungsleistung hängt von Lichtverhältnissen, Verdeckungen, Kamerawinkeln, Kopfbedeckungen, Masken und Bewegungsunschärfe ab. Nachtszenen und Weitwinkel- bzw. Fisheye-Kameras sind besonders herausfordernd [8].

Kompressions- und Bearbeitungsartefakte - Re-Encoding und Größenänderungen können einige Maskierungsmethoden abschwächen. Robuste Ansätze verwenden ausreichend starke Verpixelung oder Unschärfe (oder vollständige Maskierung/Blockflächen) bei Inhalten mit hohem Risiko. Ziel ist eine praktische Irreversibilität im Sinne der „vernünftigerweise zu erwartenden Mittel“ [1][6].

Cloud-Übertragungsrisiko - Das Hochladen von Rohmaterial zu externen Diensten erzeugt zusätzliche Datenflüsse und kann Übertragungs- oder Anbieterrisiken mit sich bringen. On-Premise-Software kann externe Übermittlungen begrenzen und interne Sicherheitskontrollen unterstützen.

Unscharfes Schwarz-Weiß-Bild einer Person mit langen, lockigen Haaren. Das Gesicht ist stark unscharf und undeutlich.

Deep-Learning-Techniken und Bereitstellungsoptionen

Moderne Pipelines kombinieren Detektoren für Gesichter und Kennzeichen mit Tracking, um die Maskierung über mehrere Frames hinweg aufrechtzuerhalten. In Szenen mit höherem Risiko können Personendetektoren oder Segmentierung eingesetzt werden, um ganze Körper zu verdecken. Genauigkeit und Durchsatz sind kontextabhängig und sollten mit repräsentativen Datensätzen validiert werden.

On-Premise-Software ermöglicht die Verarbeitung innerhalb kontrollierter Infrastrukturen, unterstützt den Offline-Betrieb und kann Aufbewahrungsrichtlinien vereinfachen. Um Enterprise-taugliche On-Premise-Lösungen zu entdecken, sehen Sie sich Gallio PRO an.

Ein farbloses Foto eines Models mit verschwommenem Gesicht

Workflow zur Veröffentlichung von Fotos und Videos mit minimiertem Risiko

  1. Zweck und Rechtsgrundlage festlegen - Bei der Veröffentlichung identifizierbarer Bilder werden häufig Einwilligung oder berechtigte Interessen mit dokumentierter Abwägung herangezogen [1][4].
  2. Sichere Datenübernahme - Interne Repositories mit rollenbasiertem Zugriff nutzen. Rohdateien nicht extern teilen.
  3. Automatisierte Erkennung - Gesichtsverpixelung und Kennzeichenverpixelung anwenden. In Hochrisikokontexten ggf. ganze Körper, Uniformen oder weitere Identifikatoren unkenntlich machen.
  4. Menschliche Prüfung (Human-in-the-Loop) - Stichproben pro Szene prüfen, insbesondere bei Menschenmengen oder schlechten Lichtverhältnissen.
  5. Metadaten entfernen - EXIF und XMP vor dem Export löschen und die Verarbeitung dokumentieren.
  6. Qualitätssicherung - Praktische Irreversibilität durch Tests mit verschiedenen Zoom- und Kompressionseinstellungen sowie Kontextprüfungen validieren [1][6].
  7. Veröffentlichen und protokollieren - Verarbeitungseinstellungen, Freigaben und Aufbewahrungsfristen dokumentieren.
  8. Aufbewahrung und Löschung - Quelldateien nur so lange wie notwendig aufbewahren und anschließend sicher löschen [1].

Um diesen Workflow mit Unternehmensdaten zu evaluieren, laden Sie eine Demo herunter.

Schwarz-Weiß-Foto eines Mannes in einem weißen T-Shirt mit unscharfem Gesicht

Wirksamkeit messen, ohne zu viel zu versprechen

Definieren Sie Metriken je nach Anwendungsfall: Erkennungs-Recall für Gesichter und Kennzeichen, verbleibendes Identifikationsrisiko in geprüften Stichproben und Verarbeitungszeit pro Videominute. Berichten Sie Ergebnisse nach Szenariotyp (innen, außen, Nacht) statt als einzelne Gesamtrate. Aussagen zu Genauigkeit oder Kosten sind kontextabhängig, sofern sie nicht durch formale, öffentliche Benchmarks belegt sind. Organisationen führen mitunter interne „Re-Identifikationsversuche“ (Red-Teaming) durch, um verbleibende Identifikatoren in verpixelten Ausgaben zu finden und die Ergebnisse als Verbesserungsinput für die Pipeline zu dokumentieren [6][8].

Teams, die eine gehärtete On-Premise-Lösung suchen, können Kontakt aufnehmen, um Bereitstellung, Protokollierung, RBAC und Offline-Modi zu besprechen.

Ein dunkelhäutiger Mann in einem schwarzen Pullover, der für ein Foto posiert, mit seinem rechten Gesichtsprofil und unscharfem Gesicht

Implementierungs-Checkliste

Beim Einkauf von On-Premise-Software zur visuellen Datenanonymisierung werden typischerweise folgende Anforderungen gestellt: Batch-Verarbeitung großer Bibliotheken, konfigurierbare Unschärfe- und Maskenstärken, Unterstützung für Gesichtsverpixelung und Kennzeichenverpixelung, Video-Tracking, Metadaten-Entfernung, Audit-Logs und Hardwarebeschleunigung. Die Ausrichtung an internen Sicherheitsrichtlinien sowie die vollständige Offline-Fähigkeit sind insbesondere im öffentlichen Sektor und in regulierten Branchen gängige Anforderungen.

Schwarz-weiße Grafik, die ein ovales 3D-Fragezeichen zeigt

FAQ - Gesichtsverpixelung für Datenschutz im Deep Learning

Reicht Gesichtsverpixelung aus, um ein Video zu anonymisieren?

Nicht immer. Bleiben andere Identifikatoren erhalten (z. B. einzigartige Kleidung, Tätowierungen, Stimme, markante Orte oder Kfz-Kennzeichen), können Personen weiterhin identifizierbar sein. Kombinieren Sie Gesichtsverpixelung bei Bedarf mit Kennzeichenverpixelung und zusätzlichen Maskierungen in Hochrisikoszenen [1][6][8].

Sollte vor dem Filmen eine Einwilligung eingeholt werden?

Das hängt vom Kontext und der gewählten Rechtsgrundlage ab. Viele Organisationen stützen sich bei identifizierbarem Material auf Einwilligung oder berechtigte Interessen; je nach Umständen können jedoch andere Rechtsgrundlagen gelten. Sind Ergebnisse tatsächlich anonymisiert (Personen mit vernünftigerweise zu erwartenden Mitteln nicht identifizierbar), kann die Veröffentlichung außerhalb von DSGVO/UK GDPR fallen. Die Aufzeichnung und Verarbeitung des Originalmaterials bleibt jedoch eine Verarbeitung personenbezogener Daten und erfordert eine Rechtsgrundlage sowie die Einhaltung von Transparenz- und Fairnesspflichten [1][4][6].

Ändert On-Premise-Verarbeitung die rechtlichen Pflichten?

Sie ändert nicht das Gesetz, kann aber Offenlegungen gegenüber Dritten und Übermittlungen reduzieren sowie Sicherheits- und Aufbewahrungskontrollen vereinfachen. Die rechtlichen Pflichten gelten weiterhin für jede Verarbeitung personenbezogener Daten [1][2][4].

Wie sollte mit Metadaten in Fotos und Videos umgegangen werden?

Entfernen Sie EXIF- und XMP-Metadaten vor der Veröffentlichung, soweit möglich, da Metadaten das Identifikationsrisiko erhöhen können (z. B. GPS-Standort und Zeitstempel). Dies ist eine gängige Maßnahme zur Risikominimierung.

Welche Unschärfestärke gilt als irreversibel?

Es gibt keine von Aufsichtsbehörden festgelegte einheitliche Kernel-Größe. Ein praxisnaher Ansatz ist das Testen gegen Re-Identifikation unter Berücksichtigung „vernünftigerweise zu erwartender Mittel“, einschließlich gängiger Verbesserungen (Größenänderung, Re-Encoding, Schärfung) und Kontextinformationen. Sind Personen im Kontext nicht identifizierbar, nähert sich die Einstellung einer Anonymisierung an [1][6].

Sind Kfz-Kennzeichen personenbezogene Daten?

Ja, wenn eine Person direkt oder indirekt über das Kennzeichen identifizierbar ist (z. B. über Zulassungsdaten oder andere vernünftigerweise zu erwartende Mittel). In vielen realen Szenarien ist die Verpixelung von Kennzeichen eine sinnvolle Schutzmaßnahme bei Straßenaufnahmen [1][5].

Wann sind Einwilligung oder Anonymisierung nicht erforderlich?

Es gibt keine pauschalen Ausnahmen nach DSGVO/UK GDPR, die automatisch eine Rechtsgrundlage entfallen lassen. In der Praxis hängt dies vom Kontext ab: ob es sich um eine Person des öffentlichen Lebens in öffentlicher Funktion handelt, ob die Person nur beiläufig in einer größeren Szene erscheint und ob ein gültiger Vertrag bzw. Model Release die Nutzung abdeckt. Zusätzlich können lokale Bildnis- und Persönlichkeitsrechte gelten [1][4].

Referenzliste

  1. [1] Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung).
  2. [2] UK GDPR - Fortgeltendes EU-Recht und zugehörige Änderungen.
  3. [3] Data Protection Act 2018 (UK).
  4. [4] ICO, Leitfaden zur UK GDPR - Rechtsgrundlagen der Verarbeitung.
  5. [5] ICO, Leitlinien zur Videoüberwachung (inkl. CCTV).
  6. [6] Artikel-29-Datenschutzgruppe, Stellungnahme 05/2014 zu Anonymisierungstechniken.
  7. [7] EDPB, Leitlinien 05/2020 zur Einwilligung nach Verordnung 2016/679.
  8. [8] EDPB, Leitlinien 3/2019 zur Verarbeitung personenbezogener Daten durch Videogeräte.