Weitergabe visueller Daten an Dritte - Perspektive Datenschutz personenbezogener Daten und transatlantische Datenübermittlungen

Łukasz Bonczol
Veröffentlicht: 12.12.2025
Aktualisiert: 10.3.2026

Die Anonymisierung visueller Daten bezeichnet den Prozess der Bearbeitung von Fotos und Videos, sodass Personen und Fahrzeuge nicht mehr identifizierbar sind. Typische Maßnahmen sind das Verpixeln von Gesichtern, das Unkenntlichmachen von Kfz-Kennzeichen, das Maskieren von Hintergründen sowie das Entfernen von Metadaten. Nach DSGVO und UK GDPR fallen Daten, die tatsächlich anonym sind, nicht in den Anwendungsbereich des Datenschutzrechts, sofern eine Re-Identifizierung unter Einsatz aller vernünftigerweise zu erwartenden Mittel nicht wahrscheinlich ist [1][2].

Schwarzweißfoto einer Speakerin, elegant gekleidet, die auf eine Präsentation mit Diagrammen zeigt, ihr Gesicht ist verschwommen

Warum Anonymisierung bei der Veröffentlichung von Bildern und Videos wichtig ist

Bilder und Videos enthalten häufig personenbezogene Daten, darunter Gesichter, Kennzeichen, Namensschilder auf Uniformen oder eindeutig erkennbare Orte. Kann eine Person herausgegriffen oder identifiziert werden, handelt es sich um personenbezogene Daten, deren Verarbeitung den Anforderungen der DSGVO oder UK GDPR unterliegt. Durch Anonymisierung können Organisationen Inhalte veröffentlichen, an Behörden weitergeben oder intern für Schulungszwecke nutzen und dabei regulatorische Risiken reduzieren. Die Anonymisierung muss jedoch belastbar sein: Ist eine Identifizierung weiterhin über Kontextinformationen oder Metadaten möglich, gelten die Inhalte weiterhin als personenbezogene Daten [1][4].

Zwei Mitarbeiterinnen sitzen an einem Tisch mit einem Bildschirm, auf dem die Verkaufsergebnisse angezeigt werden, ein Mitarbeiter, der das Meeting leitet, beobachtet sie und spricht zu ihnen, Schwarz-Weiß-Foto

Techniken, die typischerweise die Compliance unterstützen

Das Verpixeln von Gesichtern und Kennzeichen reduziert direkte Identifikatoren. Hintergrundmaskierung oder selektive Schwärzung entfernt sekundäre Hinweise wie auffällige Tätowierungen, Gebäudenummern oder Bildschirminhalte an Arbeitsplätzen. Die Entfernung von Metadaten löscht EXIF- und IPTC-Tags, die Gerätekennungen, GPS-Koordinaten oder Zeitstempel enthalten können und so eine Zuordnung ermöglichen. In der Praxis kombinieren Organisationen diese Methoden häufig und testen die Ergebnisse gezielt auf Re-Identifizierungsrisiken.

Auf dem schwarz-weißen Foto ist eine Frau mit verschwommenem Gesicht zu sehen, die ein Tablet und ein Mikrofon hält und eine Präsentation hält.

Drei Ausnahmen, in denen eine Einwilligung zur Veröffentlichung eines Bildes möglicherweise nicht erforderlich ist

Die folgenden Szenarien können in einigen Rechtsordnungen bestehen und sind kontextabhängig (typischerweise im Rahmen von Bildrechten / Persönlichkeitsrechten oder vergleichbaren Regelungen). Sie heben datenschutzrechtliche Pflichten nicht auf, sofern weiterhin identifizierbare personenbezogene Daten vorliegen.

  1. Die abgebildete Person ist allgemein bekannt (Person des öffentlichen Lebens) und das Bild steht im Zusammenhang mit ihrer öffentlichen Rolle.
  2. Die Person erscheint lediglich als Teil einer größeren Szenerie, etwa einer Landschaft oder einer öffentlichen Veranstaltung, und ist nicht Hauptmotiv.
  3. Die Person wurde für das Posieren bezahlt (z. B. ein Model) und der vereinbarte Nutzungsumfang umfasst die Veröffentlichung; maßgeblich sind der Vertrag und das anwendbare lokale Recht.

Ob diese Ausnahmen greifen, hängt vom jeweiligen nationalen Recht, Urheber- und Bildrechten sowie den konkreten Umständen ab. Bei verbleibenden Zweifeln entscheiden sich Organisationen häufig für eine Anonymisierung oder eine andere Rechtsgrundlage, um Risiken zu minimieren.

schwarz-weißes Foto, ein Organisationsmeeting mit den Verkaufsergebnissen wird durchgeführt, die Zuhörer sitzen in Reihen und der Moderator zeigt auf Diagramme und hat ein anonymisiertes Gesicht

Workflow für die Veröffentlichung visueller Inhalte mit Dritten

  1. Zweck und Zielgruppe festlegen. Klären Sie, ob die Inhalte öffentlich zugänglich, mit Dienstleistern geteilt oder ausschließlich intern genutzt werden.
  2. Datenminimierung bei der Aufnahme. Vermeiden Sie Nahaufnahmen von Gesichtern und Kennzeichen, wenn diese nicht erforderlich sind, und erfassen Sie keine unnötig sensiblen Szenen.
  3. Erkennen und unkenntlich machen. Wenden Sie Gesichts- und Kennzeichenverpixelung an. Ziehen Sie Hintergrundmaskierung in Betracht, wenn markante Merkmale eine Re-Identifizierung erleichtern.
  4. Metadaten entfernen. Löschen Sie EXIF/IPTC-Daten und Vorschaubilder. Standardisieren Sie Dateinamen, sodass sie keine personenbezogenen Daten enthalten.
  5. Qualität validieren. Prüfen Sie Stichproben auf Fehl- und Übererkennungen. Passen Sie Schwellenwerte an und führen Sie die Verarbeitung bei Bedarf erneut durch.
  6. Bereitstellung festlegen. Bevorzugen Sie On-Premise-Software, um Inhalte lokal zu verarbeiten und ausgehende Datenübermittlungen zu minimieren. Dies erhöht die Sicherheit und reduziert grenzüberschreitende Datenflüsse.
  7. Entscheidungen dokumentieren. Halten Sie Einstellungen, Restrisikoanalysen und Prüfungen fest. Dies ist eine gängige Compliance-Praxis zur Nachvollziehbarkeit.
  8. Weitergabe an Dritte nach dem Prinzip der Datensparsamkeit. Stellen Sie anonymisierte Exporte bereit. Müssen Originalaufnahmen geteilt werden, nutzen Sie Verschlüsselung, kurze Aufbewahrungsfristen und vertragliche Nutzungsbeschränkungen.

Entdecken Sie Gallio PRO für On-Premise-Anonymisierung visueller Daten im Einklang mit diesen Schritten.

Schwarz-weißes Foto mit anonymisierten Gesichtern, das ein Geschäftstreffen zeigt

DSGVO vs. UK GDPR bei der Veröffentlichung von Fotos und Videos

Thema

EU-DSGVO

UK GDPR

 

Anonyme Daten

Außerhalb des Anwendungsbereichs, wenn eine Re-Identifizierung nicht vernünftigerweise wahrscheinlich ist [1]

Ebenso außerhalb des Anwendungsbereichs nach demselben Grundsatz (UK GDPR; Auslegung im Einklang mit dem DSGVO-Anonymisierungskonzept) [2]

Rechtsgrundlage für identifizierbare Bilder

Zweckabhängig. Häufig berechtigtes Interesse oder Einwilligung, jeweils im Einzelfall zu prüfen [1]

Ähnliche Bewertung nach UK GDPR und Data Protection Act 2018 [2]

Besondere Kategorien von Daten

Werden durch Bilder Angaben zu Gesundheit, Religion oder politischen Ansichten offenbart, können zusätzliche Voraussetzungen gelten (Art. 9 DSGVO) [1]

Entsprechende Einschränkungen nach Art. 9 UK GDPR und Schedule 1 DPA 2018 [2]

Internationale Übermittlungen

Angemessenheitsbeschluss, SCCs oder EU‑US DPF für US-Empfänger, ggf. mit zusätzlichen Maßnahmen [1][3][6]

UK-Angemessenheitsregelungen, IDTA oder UK Addendum sowie ggf. Transfer-Risikoanalyse [2]

CCTV-Leitlinien

EDSA und nationale Aufsichtsbehörden betonen Erforderlichkeit, Datenminimierung und Transparenz [1]

ICO-Leitlinien zu CCTV enthalten detaillierte Erwartungen an Videoaufnahmen [5]

Schwarz-weißes Foto, das einen Vortrag für Jugendliche in der Bibliothek zeigt, der Referent zeichnet eine Gedankenkarte auf die Tafel, sein Gesicht ist verschwommen

Transatlantische Datenübermittlungen bei der Weitergabe visueller Inhalte

Bleiben Fotos oder Videos nach der Verarbeitung personenbezogene Daten, stellt die Weitergabe an einen US-Dienstleister eine Übermittlung nach Kapitel V DSGVO dar. Mögliche Optionen sind: (1) das EU‑US Data Privacy Framework für zertifizierte US-Empfänger [6], (2) Standardvertragsklauseln mit Transfer-Risikoanalyse und ggf. ergänzenden Maßnahmen [3] oder (3) ein einschlägiger Angemessenheitsbeschluss. Unter der UK GDPR gelten vergleichbare Instrumente über Angemessenheitsregelungen sowie das International Data Transfer Agreement (IDTA) oder das UK Addendum zu den EU-SCCs, unterstützt durch eine Transfer-Risikoanalyse [2]. On-Premise-Software hilft, Übermittlungen ganz zu vermeiden oder vor einem Export eine Anonymisierung vorzunehmen, sodass die geteilten Dateien bei robuster Anonymisierung außerhalb des Datenschutzrechts liegen können [1][2].

Demo herunterladen, um On-Premise-Verarbeitung zu testen, bei der Rohmaterial in Ihrer Umgebung verbleibt.

Auf dem farblosen Foto ist ein Leiter mit eingefrorenem Gesicht bei einem Geschäftstreffen zu sehen.

Risikopunkte, die Unternehmen häufig übersehen

  • Re-Identifizierungsrisiko. Selbst nach Gesichtsverpixelung können Personen über Kleidung, Gangbild, Ortsbesonderheiten oder wiederkehrende Muster identifiziert werden. Das Risiko hängt davon ab, wer Zugriff auf das Material hat und welche externen Daten kombiniert werden können [4].
  • Hintergrund-Identifikatoren. Whiteboards, Bildschirme, Türschilder, Namensaufdrucke auf Uniformen oder einzigartige Innenräume können Identitäten offenlegen. Für Unternehmensveröffentlichungen ist daher häufig eine Hintergrundmaskierung oder selektive Schwärzung erforderlich.
  • Metadaten. EXIF-GPS-Daten, Geräte-Seriennummern, Zeit- und Datumsangaben sowie Bearbeitungshistorien können eine Zuordnung zu Personen oder Orten ermöglichen. Das Entfernen von Metadaten vor der Veröffentlichung ist eine gängige Compliance-Praxis, wie sie in Leitlinien der Aufsichtsbehörden beschrieben wird (abhängig vom Kontext) [5].
  • Erkennungsfehler. Automatisierte Erkennungsalgorithmen können kleine, verdeckte oder schräg aufgenommene Objekte übersehen. Fehlende Erkennungen erhöhen das Compliance-Risiko, während Übererkennungen den Nutzwert mindern. Qualitätssicherung anhand repräsentativer Stichproben und versionierte Verarbeitungseinstellungen sind wirksame Schutzmaßnahmen.

Kinder in Aufnahmen. Bilder von Kindern erhöhen Risiko und öffentliche Sensibilität. Bleibt eine Identifizierung möglich, wenden Organisationen häufig strengere Minimierungs- und Prüfmaßnahmen an.

Das Schwarz-Weiß-Foto wurde anonymisiert. Es zeigt eine Frau, die auf Diagramme an einer Tafel zeigt.

Tool-Auswahl und On-Premise-Software

Cloud-Dienste sind effizient, können jedoch zusätzliche Analysen zu grenzüberschreitenden Datenübermittlungen und erhöhte Sicherheitsanforderungen auslösen. On-Premise-Software ermöglicht die Verarbeitung auf eigener, gesicherter Infrastruktur, unterstützt Datenlokalität und vereinfacht das Lieferantenrisikomanagement für Rohmaterial. Zudem erlaubt sie eine Anonymisierung vor jeder Weitergabe, sodass nachgelagerte Inhalte bei robuster Anonymisierung voraussichtlich außerhalb des Anwendungsbereichs der DSGVO liegen. Leistung und Kosten hängen vom Kontext ab und variieren je nach Videoauflösung, Szenenkomplexität und Automatisierungsgrad.

Kontaktieren Sie uns, um On-Premise-Anonymisierung visueller Daten im Einklang mit Ihren internen Sicherheitsrichtlinien zu besprechen.

eine amateurhaft gemachte Grafik, die eine Figur zeigt, die sich den Kopf hält, rechts drei Fragezeichen, jedes in einem anderen Stil, die Grafik wurde entsättigt

FAQ - Weitergabe visueller Daten an Dritte

F1: Macht Gesichtsverpixelung Aufnahmen immer anonym?

Nicht immer. Bleibt eine Identifizierung über Kleidung, Kontext oder wiederkehrende Auftritte möglich, gelten die Aufnahmen weiterhin als personenbezogene Daten. Zusätzliche Maskierung und das Entfernen von Metadaten sind häufig erforderlich [1][4].

F2: Wann sollte eine Kennzeichenverpixelung angewendet werden?

Immer dann, wenn Kennzeichen sichtbar sind und das Material geteilt oder veröffentlicht wird. Kennzeichen können personenbezogene Daten sein, insbesondere wenn sie eine direkte oder indirekte Identifizierung ermöglichen, und müssen in der Regel unkenntlich gemacht werden, sofern keine klare Rechtsgrundlage besteht und das Risiko akzeptabel ist.

F3: Reichen automatisierte Tools ohne menschliche Kontrolle aus?

Automatisierte Tools reduzieren den Aufwand, jedoch treten Erkennungsfehler auf. Eine verhältnismäßige manuelle Stichprobenprüfung ist eine gängige Compliance-Praxis, insbesondere bei risikoreichen oder öffentlichen Veröffentlichungen.

F4: Wie hilft On-Premise-Software bei Datenübermittlungen?

Die lokale Verarbeitung vermeidet die Übermittlung von Rohmaterial an externe Auftragsverarbeiter. Ist die Anonymisierung vor einem Export robust, können die resultierenden Dateien außerhalb der Übermittlungsregeln der DSGVO oder UK GDPR liegen, da es sich nicht mehr um personenbezogene Daten handelt [1][2].

F5: Heben die drei Ausnahmen alle DSGVO-Pflichten auf?

Nein. Die genannten Ausnahmen betreffen Bild- und Persönlichkeitsrechte und sind kontextabhängig. Bleiben Personen identifizierbar, können weiterhin Pflichten nach DSGVO oder UK GDPR gelten, einschließlich Transparenz und Datenminimierung.

F6: Was sollte aus Metadaten entfernt werden?

Gängige Praxis ist das Entfernen von GPS-Koordinaten, Gerätekennungen, Zeitstempeln, Urheberfeldern und eingebetteten Vorschaubildern, die eine Verknüpfung ermöglichen könnten.

F7: Ist für die Veröffentlichung von Videos eine Datenschutz-Folgenabschätzung (DSFA) erforderlich?

Das hängt von Umfang, Kontext und Risiko ab. Eine groß angelegte systematische Überwachung oder andere risikoreiche Verarbeitungen können eine DSFA nach DSGVO oder UK GDPR erforderlich machen. Anonymisierung kann das Restrisiko reduzieren.

Referenzliste

  1. [1] Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung), einschließlich Erwägungsgrund 26 sowie Artikel 4 und 44-49.
  2. [2] UK GDPR und Data Protection Act 2018.
  3. [3] Europäischer Datenschutzausschuss, Empfehlungen 01/2020 zu Maßnahmen zur Ergänzung von Übermittlungsinstrumenten.
  4. [4] Artikel-29-Datenschutzgruppe, Stellungnahme 05/2014 zu Anonymisierungstechniken.
  5. [5] UK Information Commissioner’s Office, Leitlinien zu CCTV und Überwachungssystemen sowie „What is personal data?“
  6. [6] Durchführungsbeschluss der Europäischen Kommission vom 10. Juli 2023 zur Angemessenheit des EU‑US Data Privacy Frameworks.