Warum Videoanonymisierung in Gerichtsverfahren unverzichtbar ist: rechtliche, ethische und technologische Aspekte

Mateusz Zimoch
Veröffentlicht: 21.1.2026
Aktualisiert: 10.3.2026

Die Videoanonymisierung (auch visuelle Datenanonymisierung) bezeichnet den Prozess der irreversiblen Entfernung oder Maskierung von Identifikatoren in Bildern und Videos, sodass keine Person und kein Fahrzeug eindeutig identifiziert, zugeordnet oder aus dem Material abgeleitet werden kann. In der Praxis umfasst dies häufig das Verpixeln von Gesichtern, das Unkenntlichmachen von Kfz-Kennzeichen sowie das Maskieren markanter Merkmale wie Tätowierungen oder Firmenlogos. Anonymisierung geht dabei über eine bloße Verdeckung hinaus und zielt auf ein Risikoniveau ab, bei dem eine Re-Identifizierung nach vernünftiger Einschätzung nicht wahrscheinlich ist - unter Berücksichtigung der Mittel, die realistischerweise eingesetzt werden könnten [1].

farbenloses Foto einer modernistischen Hotelrezeption und -lobby

Warum sie vor Gericht zählt: Zulässigkeit, Fairness und Datenschutz

Gerichtsverfahren stützen sich zunehmend auf Videomaterial aus CCTV-Anlagen, Dashcams, Mobiltelefonen und Drohnen. Die Videoanonymisierung ist aus drei Gründen entscheidend: 1) Zulässigkeit und Beweiswert, 2) Einhaltung datenschutzrechtlicher Vorgaben bei Weitergabe oder Veröffentlichung von Beweismitteln und 3) Vertrauen der Öffentlichkeit in eine transparente Justiz. Verlässt Videomaterial die Verfahrensakte - etwa zu Schulungszwecken, für öffentliche Informationen oder Pressemitteilungen -, kann die unkontrollierte Offenlegung von Gesichtern oder Kennzeichen zu unrechtmäßiger Verarbeitung und Risiken für die Rechte unbeteiligter Dritter führen, die nicht Verfahrensparteien sind [1][4].

Gerichte und Organisationen, die Beweismittel verarbeiten, müssen Notwendigkeit und Verhältnismäßigkeit abwägen. Eine wirksame Anonymisierung ermöglicht Transparenz und Weitergabe, während gleichzeitig das Risiko minimiert wird, dass identifizierbare Daten über den rechtlich erforderlichen Zweck hinaus bekannt werden.

Schwarz-weißes Foto, das eine Gerichtsverhandlung zeigt, an der drei Personen mit nicht sichtbaren Gesichtern teilnehmen; auf dem Schreibtisch liegen ein Laptop und ein Hammer, darunter eine Unterlage

Rechtlicher Rahmen für Bilder und Videos: DSGVO und UK GDPR

Nach der DSGVO und der UK GDPR gelten identifizierbare Personen in Bildern und Videos als personenbezogene Daten. Schwärzung und Verpixelung sind Formen der Verarbeitung, wofür eine Rechtsgrundlage erforderlich ist - sowohl für die Verarbeitung des identifizierbaren Ausgangsmaterials als auch für jede spätere Offenlegung (einschließlich der Weitergabe einer geschwärzten Version, sofern Personen weiterhin identifizierbar sind) [1][2]. Für öffentliche Stellen ist die Rechtsgrundlage häufig die Wahrnehmung einer Aufgabe im öffentlichen Interesse. Für private Stellen kommen berechtigte Interessen in Betracht, sofern diese sorgfältig abgewogen werden. Enthält das Material besondere Kategorien personenbezogener Daten (z. B. Gesundheitsdaten, religiöse Überzeugungen oder Gewerkschaftszugehörigkeit), müssen zusätzlich die Voraussetzungen des Artikels 9 erfüllt sein. Allein eine „Ableitung“ (Inference) stellt nicht automatisch besondere Kategorien dar; entscheidend ist, was das Material unter den konkreten Umständen offenbart oder zu offenbaren bestimmt ist [1].

Bei Überwachung sowie bei jeder Veröffentlichung oder Weitergabe über den ursprünglichen Zweck hinaus erwarten Aufsichtsbehörden in der Regel eine dokumentierte Prüfung der Erforderlichkeit, angemessene Sicherheitsmaßnahmen, Zugriffsbeschränkungen und klare Aufbewahrungsfristen. Die Leitlinien der ICO zu CCTV/Videoüberwachung sowie die EDPB-Leitlinien 3/2019 formulieren praxisnahe Erwartungen an Transparenz, Zugriffskontrollen, Speicherbegrenzung und eine sorgfältige Offenlegung bzw. Schwärzung, wo erforderlich [4][5].

Schwarz-weißes Foto von der Vorderseite einer Skulptur einer Frau, die in der rechten Hand ein Schwert und in der linken eine Waage hält

Drei Ausnahmen, die Organisationen häufig prüfen

Obwohl die Videoanonymisierung ein gängiger Compliance-Ansatz für die Weitergabe oder Veröffentlichung von gerichtsbezogenem Videomaterial ist, werden in eng begrenzten Szenarien häufig drei Ausnahmen erwogen:

  1. Eine gerichtliche Anordnung oder sonstige rechtliche Verpflichtung zur Offenlegung identifizierbaren Materials gegenüber den Parteien zur Begründung, Ausübung oder Verteidigung von Rechtsansprüchen. Bei besonderen Kategorien personenbezogener Daten kann dies auf Artikel 9 Abs. 2 lit. f (Rechtsansprüche) gestützt sein und ist stets einzelfallabhängig [1].
  2. Verarbeitung zu journalistischen Zwecken, sofern nationale Gesetze die in Artikel 85 vorgesehenen Ausnahmen zur Abwägung zwischen Meinungsfreiheit und Datenschutz umsetzen. Die Anwendbarkeit ist stark kontextabhängig und variiert je nach Rechtsordnung [1][2].
  3. Verarbeitung im Rahmen der Strafverfolgung zur Verhütung, Ermittlung und Verfolgung von Straftaten, die im Vereinigten Königreich regelmäßig unter Teil 3 des Data Protection Act 2018 (Strafverfolgungsverarbeitung) fällt und nicht unter die UK GDPR. Dies ist ein eigenständiger Rechtsrahmen mit eigenen Schutzmechanismen [3].

Außerhalb dieser Konstellationen ist die Anonymisierung vor Offenlegung oder Veröffentlichung eine bewährte Praxis, um Risiken zu reduzieren und den Verhältnismäßigkeitsanforderungen der Aufsichtsbehörden gerecht zu werden.

Schwarzweißfoto eines Richterhammers beim Aufschlagen auf ein Buch

DSGVO und UK GDPR im Vergleich bei der Veröffentlichung von gerichtsbezogenem Bild- und Videomaterial

Thema

EU-DSGVO

UK GDPR und DPA 2018

 

Bilder als personenbezogene Daten

Identifizierbare Gesichter, Kfz-Kennzeichen und andere Merkmale können personenbezogene Daten sein [1]

Gleicher Ansatz nach dem Brexit unter der UK GDPR beibehalten [2]

Rechtsgrundlage für Offenlegung/Veröffentlichung

Häufig öffentliche Aufgabe (öffentliche Stellen) oder berechtigte Interessen (private Stellen), jeweils unter Beachtung von Erforderlichkeit und Abwägung; die Grundsätze sind stets einzuhalten [1]

Ebenso öffentliche Aufgabe oder berechtigte Interessen; ICO-Leitlinien betonen Erforderlichkeit, Fairness und geeignete Bewertungen (einschließlich DPIA, häufig bei systematischer CCTV-Nutzung) [4]

Besondere Kategorien personenbezogener Daten

Erfordern eine Bedingung nach Artikel 9, wenn das Material solche Daten enthält; Rechtsansprüche (Art. 9 Abs. 2 lit. f) können in Prozesskontexten relevant sein [1]

Spiegelbildlich unter der UK GDPR; zusätzliche nationale Bedingungen und Schutzmaßnahmen können über die Anhänge des DPA 2018 gelten [2][3]

Journalistische Ausnahmen

Artikel 85 verpflichtet die Mitgliedstaaten zur Abwägung zwischen Datenschutz und Meinungs- sowie Informationsfreiheit [1]

Regelungen zu besonderen Zwecken/Ausnahmen im DPA 2018 (journalistisch, akademisch, künstlerisch, literarisch), jeweils unter Bedingungen [3]

Aufsichtsrechtliche Leitlinien zu Video

EDPB-Leitlinien 3/2019 zur Verarbeitung personenbezogener Daten durch Videogeräte [5]

ICO-Leitlinien zu CCTV/Videoüberwachung und personenbezogenen Daten [4]

Foto von einem juristischen Treffen, an dem zwei Personen teilnehmen, auf dem Schreibtisch ein Laptop, zwei Notizbücher, ein Blumentopf mit weißen Blumen, ein Tablet und ein Richterhammer mit Unterlage

Technologie, die vor Gericht Bestand hat

Qualität ist entscheidend. Gerichtsfeste Videoanonymisierung erfordert präzise Erkennung, konsistente Maskierung und Nachvollziehbarkeit. Das Verpixeln von Gesichtern und Kennzeichen muss mit Verdeckungen, schlechten Lichtverhältnissen, Bewegung und Kamerawacklern umgehen können. Robuste Workflows schließen gegebenenfalls eine Ganzkörpermaskierung ein, wenn Gesichter nicht sichtbar sind oder andere Identifikatoren verbleiben. Auch das Re-Identifikationsrisiko durch Kontext - etwa markante Uniformen, Zeitstempel, Orte oder andere Hinweise - sollte bewertet und, soweit verhältnismäßig, minimiert werden.

Für Beweismittel wird häufig On-Premise-Software bevorzugt, da sie das Ausgangsmaterial in kontrollierten Netzwerken hält und Transfer- sowie Souveränitätsfragen vereinfacht. Wird eine Cloud genutzt, sind angemessene technische und organisatorische Maßnahmen erforderlich (z. B. Verschlüsselung, Zugriffskontrollen und belastbare Auftragsverarbeiterverträge). Bei internationalen Datenübermittlungen müssen zudem die entsprechenden Übermittlungsvorschriften beachtet werden [1][2].

Automatisierung sollte stets durch eine menschliche Prüfung ergänzt werden. Kein Modell ist in jeder Szene fehlerfrei. Genauigkeit und Kosteneinsparungen hängen stark von Kontextfaktoren wie Kamerqualität, Blickwinkeln und Personendichte ab.

Suchen Sie nach einem On-Premise-Workflow für gerichtsfeste Schwärzung? Entdecken Sie Gallio PRO.

Schwarz-weißes Foto eines Gebäudes im römischen Stil mit korinthischen Säulen, deren Kapitelle reich mit Akanthusblättern, Voluten und pflanzlichen Ornamenten verziert sind, am Sockel die Inschrift „COUR D’APPEL“

Ein operativer Workflow, den Jurateams verteidigen können

  1. Ingest: Hash des Originalfiles erstellen und Metadaten zur Beweiskette protokollieren.
  2. Scope: Festlegen, wer und was geschützt werden muss - Gesichter, Kennzeichen, Unbeteiligte, markante Merkmale.
  3. Detect: Automatisierte Gesichts- und Kennzeichenerkennung mit konservativen Schwellenwerten ausführen.
  4. Mask: Persistente Unschärfe oder Pixelierung über alle Frames hinweg anwenden, inklusive Tracking bei Verdeckungen.
  5. Review: Manuelle Qualitätssicherung mit stichprobenartigen Frame-für-Frame-Kontrollen, insbesondere bei niedriger Erkennungszuverlässigkeit.
  6. Export: Anonymisierte/geschwärzte Kopie sowie einen Auditbericht mit Einstellungen, Zeitstempeln und Prüferidentität erzeugen.
  7. Retain: Original sicher mit Zugriffskontrollen aufbewahren; Arbeitskopien fristgerecht löschen.

Teams standardisieren diese Pipeline, um menschliche Fehler zu reduzieren und Verhältnismäßigkeit gegenüber Gerichten oder Aufsichtsbehörden belegen zu können. Um einen verteidigungsfähigen Schwärzungs-Workflow zu testen, laden Sie eine Demo herunter.

Schwarz-weißes Foto eines nachdenklichen Jungen, der den Finger an die Schläfe legt, sein Gesicht ist verschwommen

Häufige Fallstricke aus Sicht von Compliance-Teams

Unzureichende Schwärzung gefährdet die Rechte Betroffener und kann Nachbearbeitung oder Datenschutzvorfälle nach sich ziehen. Übermäßige Schwärzung kann hingegen den Beweiswert beeinträchtigen, etwa wenn Gesten oder Interaktionen entfernt werden, die für den Fall relevant sind. Ein ausgewogener Ansatz setzt auf selektive Maskierung mit klarer Begründung. Wasserzeichen und Zeitcodes helfen bei der Rückverfolgbarkeit von Leaks, anonymisieren Inhalte jedoch nicht per se. Auch Audio kann Personen identifizieren - dieser Beitrag konzentriert sich jedoch ausschließlich auf visuelle Daten. Für einsatznahe Beratung zu sensiblen Inhalten kontaktieren Sie uns.

einfache Grafik eines weißen Fragezeichens vor einem grauen Kreis

FAQ: Warum Videoanonymisierung in Gerichtsverfahren unverzichtbar ist

Reicht das Verpixeln von Gesichtern zur Anonymisierung aus?

Nicht immer. Kleidung, Tätowierungen, Gangbild oder ein einzigartiger Kontext können weiterhin eine Identifizierung ermöglichen. In Hochrisikofällen werden zusätzliche Maskierungen (z. B. Ganzkörpermaskierung) oder eine Reduktion kontextueller Hinweise eingesetzt, sofern verhältnismäßig [5].

Was ist der Unterschied zwischen Anonymisierung und Pseudonymisierung bei Video?

Anonymisierung beseitigt die Identifizierbarkeit so, dass eine Identifikation nach vernünftiger Einschätzung nicht wahrscheinlich ist. Pseudonymisierung reduziert die direkte Identifizierbarkeit, erlaubt jedoch eine Re-Verknüpfung mit Zusatzinformationen und bleibt daher personenbezogen im Sinne der DSGVO [1].

Welche Rechtsgrundlagen sind bei der Weitergabe von Gerichtsaufnahmen üblich?

Öffentliche Aufgabe für Gerichte und Behörden oder berechtigte Interessen für private Stellen. Bei besonderen Kategorien personenbezogener Daten ist zusätzlich eine Bedingung nach Artikel 9 erforderlich; in Prozesskontexten kann Artikel 9 Abs. 2 lit. f (Rechtsansprüche) einschlägig sein. Die Anwendbarkeit ist stets einzelfallbezogen zu prüfen [1][2].

Werden Minderjährige bei der Veröffentlichung von Videos anders behandelt?

Ja. Minderjährige genießen in der Regel einen erhöhten Schutz, und es bestehen strengere Erwartungen an eine Maskierung vor Veröffentlichung. Konkrete Vorgaben variieren je nach Rechtsordnung, gerichtlicher Anordnung und Gerichtspraxis.

Wann ist Cloud-Verarbeitung für die Schwärzung von Beweismitteln zulässig?

Wenn vertragliche Schutzmaßnahmen, Sicherheitsvorkehrungen (z. B. Verschlüsselung und starke Zugriffskontrollen) sowie - sofern einschlägig - Garantien für internationale Datenübermittlungen die rechtlichen Anforderungen und regulatorischen Erwartungen erfüllen. Viele Organisationen bevorzugen dennoch On-Premise-Lösungen, um Risiko- und Souveränitätsfragen zu vereinfachen [1][4].

Wie kann ein Team nachweisen, dass die Anonymisierung korrekt durchgeführt wurde?

Durch die Aufbewahrung von Hashes der Originale, den Export von Audit-Logs mit Tool-Versionen und Einstellungen sowie die Sicherung von Prüfernotizen. Zudem sollten Stichprobenprüfungen und Randfälle dokumentiert werden, um Reproduzierbarkeit zu gewährleisten.

Referenzliste

  1. [1] Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung, DSGVO).
  2. [2] UK GDPR (fortgeltendes EU-Recht) sowie Leitlinien und Materialien der britischen Regierung und der ICO.
  3. [3] UK Data Protection Act 2018, einschließlich Teil 3 (Strafverfolgungsverarbeitung) und Regelungen zu besonderen Zwecken.
  4. [4] Information Commissioner’s Office (ICO), Leitlinien zu CCTV/Videoüberwachung und personenbezogenen Daten.
  5. [5] Europäischer Datenschutzausschuss (EDPB), Leitlinien 3/2019 zur Verarbeitung personenbezogener Daten durch Videogeräte.