Was muss neben Kennzeichen anonymisiert werden? Eine Checkliste für visuellen Datenschutz

Łukasz Bonczol
Veröffentlicht: 13.1.2026
Aktualisiert: 10.3.2026

Visuelle Datenanonymisierung bedeutet, Bilder oder Videos so zu verändern, dass Personen mit keinem vernünftigerweise zu erwartenden Mittel identifiziert werden können. Nach DSGVO und UK DSGVO gelten Daten nicht mehr als personenbezogen, wenn eine Identifizierung unter Berücksichtigung von Kosten, Zeitaufwand und verfügbarer Technologie nicht möglich ist [1]. In Veröffentlichungsszenarien stützt sich die Anonymisierung häufig auf Gesichtsverpixelung und Kennzeichenverpixelung. Dennoch können viele weitere visuelle Hinweise eine Person identifizierbar machen. Dieser Artikel zeigt, worauf zusätzlich geachtet werden sollte, bevor Fotos oder Videos veröffentlicht werden.

Schwarz-weißes Foto, das etwa ein Dutzend amerikanischer Nummernschilder zeigt, wahrscheinlich an einer Wand befestigt

Warum Kennzeichenverpixelung allein nicht ausreicht

Kennzeichen sind nur einer von mehreren gängigen Identifikatoren. In der Praxis werden Menschen oft anhand von Gesichtszügen, markanter Kleidung, Tätowierungen, Dienstausweisen oder durch die Kombination aus Ort, Zeit und Kontext erkannt. Aufsichtsbehörden betonen regelmäßig, dass sich Identifizierbarkeit nicht auf Namen oder Nummern beschränkt. Sie umfasst alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen - auch in Bezug auf physische, physiologische, genetische, mentale, wirtschaftliche, kulturelle oder soziale Identität [1]. Ein robuster Ansatz zur visuellen Datenanonymisierung betrachtet daher nicht nur Fahrzeuge, sondern die gesamte visuelle Szene.

Auf dem schwarz-weißen Foto ist ein SUV zu sehen, im Hintergrund sind felsige Berge und Wüstengebiete zu erkennen, das Nummernschild des Autos ist unkenntlich gemacht, da das Bild anonymisiert wurde.

Checkliste für visuellen Datenschutz bei Fotos und Videos

Diese Checkliste führt typische visuelle Elemente auf, die Rückschlüsse auf die Identität zulassen können. Die Punkte sind nach ihrer Wahrscheinlichkeit geordnet, in gängigen Veröffentlichungskontexten eine Identifizierung zu ermöglichen. Organisationen nutzen diese Schritte häufig als Teil eines einheitlichen Compliance-Ansatzes bei der Aufbereitung von Medien für Websites, Berichte, soziale Netzwerke oder öffentliche Informationsportale.

  1. Gesichter und Köpfe. Gesichtsverpixelung bei frontalen und seitlichen Ansichten anwenden. Auch teilweise sichtbare Gesichter in Spiegeln oder Glasreflexionen berücksichtigen.
  2. Tätowierungen, Narben und Muttermale. Diese können starke Identifikatoren sein. Oft ist gezieltes Maskieren über das Gesicht hinaus erforderlich.
  3. Sichtbar getragene Dienstausweise und ID-Karten. Namen, Fotos sowie Barcodes/QR-Codes auf Lanyards und Ausweisen im Bild unkenntlich machen.
  4. Kleidung mit Namen oder Nummern. Trikots, personalisierte Jacken, Schuluniformen mit Namensaufdruck oder Warnwesten mit Identifikatoren sollten anonymisiert werden.
  5. Körperform und Gang. Eine markante Statur oder ein charakteristischer Gang können identifizierend wirken - insbesondere in kleinen Gemeinschaften. Zuschneiden oder Ganzkörperverpixelung kann bei hohem Risiko erforderlich sein.
  6. Hausnummern und Türklingeln mit Personenbezug. Eine gut erkennbare Hausnummer in Verbindung mit anwesenden oder eindeutig zuordenbaren Personen kann zur Identifizierung beitragen.
  7. Fahrzeugmerkmale über Kennzeichen hinaus. Firmenbeschriftungen, Funkrufnamen, Einheitsnummern oder auffällige Aufkleber können Fahrer in Kombination mit Zeit und Ort identifizieren.
  8. Bildschirme oder Wearables mit Namen oder Nachrichten. Smartwatch-Benachrichtigungen, Smartphone-Displays oder Bordcomputer können Identität oder private Informationen offenlegen. Zuschneiden ist hier oft die beste Lösung.
  9. Merkmale von Kindern und Schulkennzeichen. Bei Minderjährigen ist eine besonders vorsichtige Maskierung von Gesichtern, Namensschildern und erkennbaren Schulwappen gängige Praxis.
  10. Sensitiver Kontext. Bilder von Personen beim Betreten einer Klinik, einer religiösen Einrichtung oder eines Gewerkschaftsbüros können besondere Kategorien personenbezogener Daten nahelegen. In solchen Fällen wird üblicherweise eine Maskierung der Person - teils auch weiterer Kontextmerkmale - vorgenommen.

Öffentliche Orte sind kein „freier Veröffentlichungsraum“. Sind Personen identifizierbar, greifen DSGVO oder UK DSGVO. Vor der Veröffentlichung ist stets eine kontextbezogene Risikobewertung erforderlich.

In einer verschneiten Landschaft steht ein Auto der Marke Moskwitsch mit Koffern auf dem Dach, schwarz-weißes Foto mit anonymisierten Nummernschildern

Drei begrenzte Ausnahmen, in denen Verpixelung entbehrlich sein kann

Es gibt enge Ausnahmefälle, in denen eine Anonymisierung möglicherweise nicht erforderlich ist. Diese entbinden jedoch nicht von einer Prüfung und geeigneten Schutzmaßnahmen:

  1. Haushaltsausnahme. Verarbeitungen durch natürliche Personen im Rahmen ausschließlich persönlicher oder familiärer Tätigkeiten fallen nicht in den Anwendungsbereich der DSGVO [1, Art. 2(2)(c)].
  2. Journalistische, wissenschaftliche, künstlerische oder literarische Zwecke. Mitgliedstaaten sehen Ausnahmen vor, um Datenschutz mit Meinungs- und Informationsfreiheit in Einklang zu bringen [1, Art. 85]. Im Vereinigten Königreich ist dies im Data Protection Act 2018 geregelt [3].
  3. Keine Identifizierung vernünftigerweise zu erwarten. Sind Personen mit keinem vernünftigerweise zu erwartenden Mittel identifizierbar, findet die DSGVO keine Anwendung [1, Erwägungsgrund 26]. Dies erfordert eine sorgfältige, kontextabhängige Bewertung.

Verarbeitungen durch Strafverfolgungsbehörden unterliegen einem separaten Rechtsrahmen (in der EU: Richtlinie für den Datenschutz bei Polizei und Justiz; im Vereinigten Königreich: DPA 2018 Teil 3) und werden hier nicht behandelt. Für unternehmerische und behördliche Veröffentlichungen sind die drei genannten Grenzfälle am relevantesten.

Schwarz-weißes Weitwinkelbild, in dessen Zentrum ein weißes Auto steht, im Hintergrund eine raue Landschaft: Wiesen und ein Gebirgszug

Technologie anwenden: Automatisierung, Prüfung und On-Premise-Software

Automatisierung erleichtert die Skalierung der visuellen Datenanonymisierung. Tools können Gesichter und Kennzeichen erkennen und anschließend maskieren oder verpixeln. Genauigkeit und Kosten hängen von Szenenkomplexität, Kamerawinkeln, Lichtverhältnissen und Modellqualität ab. Eine manuelle Nachprüfung ist insbesondere bei risikoreichen Veröffentlichungen oder sensiblen Kontexten gängige Praxis.

On-Premise-Software wird häufig bevorzugt, wenn Bildmaterial sensibel ist oder Richtlinien die Übertragung an Drittserver einschränken. Die Verarbeitung auf kontrollierter Infrastruktur reduziert Datenübertragungen und Anbieterrisiken. Bei Cloud-Nutzung berücksichtigen Publisher typischerweise Datenstandort, Aufbewahrung, Zugriffskontrollen und Protokollierung.

Entdecken Sie Gallio PRO für automatisierte Gesichtsverpixelung und Kennzeichenverpixelung mit Bereitstellungsoptionen, die auf Enterprise-Governance abgestimmt sind.

Schwarz-weißes Weitwinkelbild, in dessen Zentrum ein weißes Auto steht, im Hintergrund eine raue Landschaft: Wiesen und ein Gebirgszug

Operative Checkliste vor der Veröffentlichung

  1. Zweck und Rechtsgrundlage festlegen. Häufige Grundlagen sind berechtigte Interessen; je nach Kontext können auch Einwilligungen sinnvoll sein.
  2. Alle visuellen Identifikatoren erfassen. Die obige Checkliste nutzen - über Kennzeichen hinaus.
  3. Techniken auswählen. Gesichtsverpixelung, Kennzeichenverpixelung und gezielte Maskierung für Tätowierungen, Ausweise oder Hausnummern kombinieren.
  4. Verarbeitungsort festlegen. On-Premise-Software bevorzugen, wenn Übertragungsrisiken nicht akzeptabel sind.
  5. Qualitätssicherung ergänzen. Zweitprüfung bei Minderjährigen oder sensiblen Kontexten einplanen.
  6. Entscheidungen dokumentieren. Audit-Trail führen, was warum maskiert wurde, inklusive Begründung etwaiger Restrisiken.

Teams, die eine praxisnahe Bewertung wünschen, können eine Demo herunterladen, um reale Workloads mit repräsentativem Material zu testen.

Schwarz-weißes Foto des hinteren Teils eines Dodge-Pickups, das Foto wurde zur Anonymisierung der Kennzeichen bearbeitet

DSGVO- und UK-DSGVO-Aspekte bei der Veröffentlichung von Bildern

Thema

EU-DSGVO

UK DSGVO + DPA 2018

 

Anwendungsbereich bei identifizierbaren Bildern

Personenbezogene Daten, wenn eine Person direkt oder indirekt identifizierbar ist [1, Art. 4(1)]

Gleichwertige Definition im britischen Recht

Haushaltsausnahme

Außerhalb des Anwendungsbereichs bei rein persönlichen Tätigkeiten [1, Art. 2(2)(c)]

Gleichwertige Ausnahme

Ausnahmen zur Meinungsfreiheit

Ausgleich über Artikel 85 durch Mitgliedstaaten

Umgesetzt durch Sonderregelungen im DPA 2018

Videoüberwachung

EDSA-Leitlinien 3/2019 zur Verarbeitung durch Videogeräte [2]

ICO-Leitlinien zu Videoüberwachung/CCTV [4]

Bilder von Kindern

Kinder genießen besonderen Schutz; risikobasierter Ansatz

ICO betont zusätzliche Schutzmaßnahmen für Kinder [5]

Bei Implementierungsfragen oder maßgeschneiderten Bereitstellungsoptionen kontaktieren Sie uns.

Auf dem schwarz-weißen Foto ist ein fahrendes Porsche-Auto zu sehen, das Nummernschild wurde anonymisiert und unkenntlich gemacht.

Häufige Fehler, die vermieden werden sollten

Ein verbreiteter Irrtum ist die Annahme, Aufnahmen an öffentlichen Orten seien frei veröffentlichbar. Der Aufnahmeort hebt Pflichten nicht auf, wenn Personen identifizierbar sind. Ebenso problematisch ist es, nur Gesichter zu maskieren und Tätowierungen oder Namensaufdrucke sichtbar zu lassen. Schließlich sollte bei großen Datenmengen nicht allein auf manuelle Prüfung gesetzt werden. Die Kombination aus automatisierter Erkennung und dokumentierter Nachprüfung führt zu konsistenteren Ergebnissen.

Fragezeichen wie ein Graffiti an der Wand, Schwarz-Weiß-Foto

FAQ - Was muss neben Kennzeichen anonymisiert werden?

Ist Gesichtsverpixelung immer erforderlich?

Nicht immer. Sind Personen aufgrund von Entfernung oder Bildqualität nicht identifizierbar, kann die DSGVO nicht anwendbar sein. Dies ist kontextabhängig und sollte anhand der Kriterien aus Erwägungsgrund 26 dokumentiert werden.

Wie ist mit Firmenlogos auf Fotos umzugehen?

Logos sind für sich genommen keine personenbezogenen Daten. Sind sie jedoch in einem konkreten Bild stark mit einer Person verknüpft (z. B. namentlich bekannte Mitarbeitende in einem kleinen Betrieb), sollte geprüft werden, ob weitere Identifikatoren eine Identifizierbarkeit begründen. Andernfalls ist das Maskieren von Logos meist eine Marken-, Vertraulichkeits- oder Vertragsfrage, keine Datenschutzpflicht.

Müssen Uniformen maskiert werden?

Uniformen mit Namen, Nummern oder einzigartigen lokalen Kennzeichen können Personen identifizieren. Das Maskieren dieser Elemente ist ein gängiger Compliance-Ansatz, während generische Uniformen ohne Identifikatoren meist keiner Maskierung bedürfen.

Wie sollten Minderjährige auf Eventfotos behandelt werden?

Konservative Maskierung von Gesichtern und Namensschildern ist empfehlenswert, sofern keine geeignete Rechtsgrundlage und Schutzmaßnahmen bestehen. Auch Schulkennzeichen und kontextbedingte Re-Identifikation prüfen.

Ist Einwilligung besser als Anonymisierung?

Einwilligung kann in bestimmten Situationen zulässig sein, muss jedoch freiwillig, spezifisch, informiert und eindeutig sein sowie leicht widerrufen werden können. Bei breiter öffentlicher Verbreitung ist sie oft schwer handhabbar. Anonymisierung reduziert Identifizierbarkeit und kann Compliance-Risiken senken - beide Ansätze sollten jedoch Zweck und Kontext entsprechen.

Können automatisierte Tools ein Gesicht übersehen?

Ja. Die Erkennungsgenauigkeit ist kontextabhängig. Schwaches Licht, Winkel, Spiegelungen oder Verdeckungen können zu Fehlstellen führen. Für risikoreiche Veröffentlichungen wird eine dokumentierte menschliche Nachprüfung empfohlen.

Sollte auch Audio verändert werden?

Dieser Artikel behandelt die visuelle Datenanonymisierung. Enthalten Videos Ton, ist eine separate Bewertung erforderlich, ob Stimmen oder gesprochene Informationen eine Identifizierung ermöglichen.

Referenzliste

  1. [1] Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung), einschließlich Artikel 2, 4, 85 und Erwägungsgrund 26.
  2. [2] Europäischer Datenschutzausschuss, Leitlinien 3/2019 zur Verarbeitung personenbezogener Daten durch Videogeräte.
  3. [3] UK Data Protection Act 2018, Sonderregelungen für Journalismus, Wissenschaft, Kunst und Literatur.
  4. [4] UK Information Commissioner’s Office, Leitfäden zu Videoüberwachung/CCTV und Informationsrechten.
  5. [5] UK Information Commissioner’s Office, Leitfaden zur UK DSGVO - Kinder und Datenschutz.