Wie KI-basierte Anonymisierung Strafverfolgungsbehörden bei der Einhaltung von Datenschutzbestimmungen unterstützt

Łukasz Bonczol
16.7.2025

In einer Zeit, in der visuelle Beweise für die Arbeit von Strafverfolgungsbehörden entscheidend sind, stellt die Balance zwischen Transparenz und Datenschutzanforderungen erhebliche Herausforderungen dar. Polizeibehörden weltweit teilen zunehmend Videomaterial und Bilder mit Medien oder auf ihren eigenen YouTube-Kanälen – aber ohne angemessene Anonymisierung riskieren sie Verstöße gegen strenge Datenschutzverordnungen wie die DSGVO. Die Konsequenzen können schwerwiegend sein: hohe Geldstrafen, beschädigtes Vertrauen der Öffentlichkeit und möglicherweise gefährdete Ermittlungen.

Künstliche Intelligenz hat sich in diesem Bereich als bahnbrechend erwiesen. Moderne KI-gestützte Anonymisierungslösungen können automatisch Gesichter, Kennzeichen und andere persönliche Identifikatoren in Videos und Bildern erkennen und unkenntlich machen. Dies schafft einen nahtlosen Workflow, der die Privatsphäre schützt und gleichzeitig den Beweiswert des visuellen Materials erhält. Diese Technologie ist für Strafverfolgungsbehörden, die Inhalte öffentlich teilen und dabei Datenschutzgesetze einhalten möchten, unverzichtbar geworden.

Betrachten wir, wie KI-basierte Anonymisierung die Einhaltung des Datenschutzes für Polizeibehörden und andere Strafverfolgungsorgane revolutioniert und ihnen sichere, effiziente Werkzeuge zum Schutz personenbezogener Daten in ihrer visuellen Kommunikation bietet.

Person sitzt auf dem Boden, umgeben von Laptops, trägt einen karierten Pullover, hält ein Tablet und lehnt an einem Sofa. Schwarz-Weiß-Bild.

Was sind die wichtigsten Datenschutzherausforderungen für Strafverfolgungsbehörden beim Teilen visueller Inhalte?

Strafverfolgungsbehörden erfassen regelmäßig Aufnahmen mit sensiblen personenbezogenen Daten – von Körperkameras, Überwachungssystemen und Dashcams. Wenn dieses Material mit Medien geteilt oder auf offiziellen Kanälen veröffentlicht werden muss, wird jedes sichtbare Gesicht, Kennzeichen und identifizierende Merkmal zu einem potenziellen Datenschutzproblem gemäß DSGVO und ähnlichen Vorschriften.

Die manuelle Unkenntlichmachung solcher Inhalte ist äußerst zeitaufwendig und fehleranfällig. Ein einziges übersehenes Gesicht in einer Menschenmenge oder ein teilweise sichtbares Kennzeichen kann zu Verstößen gegen die Vorschriften führen. Zudem macht die schiere Menge an Videomaterial, die Polizeibehörden täglich verarbeiten, eine manuelle Anonymisierung ohne spezielle technologische Lösungen praktisch unmöglich.

Eine weitere bedeutende Herausforderung besteht darin, den Kontext und die Nützlichkeit der Beweise zu erhalten, während identifizierende Informationen entfernt werden. Übermäßige Unkenntlichmachung kann das Material für seinen beabsichtigten Zweck unbrauchbar machen, während unzureichende Anonymisierung den Datenschutz nicht gewährleistet.

Überwachungsaufnahmen von Menschen, die durch ein schwach beleuchtetes Treppenhaus gehen, mit Trackingboxen um jede Person herum, Zeitstempel 00:36:24:05.

Wie wirkt sich die DSGVO speziell auf die Videoverarbeitung bei der Polizei aus?

Gemäß der DSGVO müssen Strafverfolgungsbehörden personenbezogene Daten mit äußerster Sorgfalt behandeln, selbst wenn sie diese für legitime Zwecke der öffentlichen Sicherheit verarbeiten. Artikel 4 der DSGVO definiert personenbezogene Daten so, dass sie identifizierbare Merkmale wie Gesichter und Kennzeichen umfassen – genau die Elemente, die üblicherweise in Polizeivideos erfasst werden.

Beim externen Teilen solcher Aufnahmen müssen Polizeibehörden sicherstellen, dass alle personenbezogenen Daten entweder anonymisiert oder auf expliziter rechtlicher Grundlage verarbeitet werden. Die Verordnung schreibt vor, dass personenbezogene Daten rechtmäßig, fair und transparent verarbeitet werden müssen, wobei geeignete technische Maßnahmen zur Gewährleistung der Einhaltung vorhanden sein müssen.

Nichteinhaltung kann zu erheblichen Strafen führen – bis zu 4% des weltweiten Jahresumsatzes oder 20 Millionen Euro, je nachdem, welcher Betrag höher ist. Für öffentliche Einrichtungen wie Polizeibehörden stellen solche Bußgelder ein erhebliches finanzielles Risiko dar, ganz zu schweigen vom potenziellen Schaden für das öffentliche Vertrauen.

Hände halten verschiedene Mikrofone vor weißem Hintergrund, bereit für ein Interview oder eine Pressekonferenz. Schwarzweißbild.

Kann KI den Prozess der Gesichtsverschleierung in Polizeivideos automatisieren?

Fortschrittliche KI-Algorithmen haben den Gesichtsverschleierungsprozess revolutioniert, indem sie automatisieren, was einst eine unglaublich arbeitsintensive Aufgabe war. Diese Systeme können Gesichter mit bemerkenswerter Genauigkeit über verschiedene Winkel, Lichtverhältnisse und sogar teilweise verdeckte Gesichter hinweg erkennen. Die Technologie verwendet Deep-Learning-Modelle, die mit diversen Datensätzen trainiert wurden, um menschliche Merkmale in praktisch jeder Videoumgebung zu erkennen.

Moderne On-Premise-Softwarelösungen können Videos in Echtzeit oder nahezu in Echtzeit verarbeiten und automatisch Gesichter im gesamten Filmmaterial identifizieren und unkenntlich machen. Diese Automatisierung reduziert die Verarbeitungszeit drastisch von Tagen auf nur Minuten oder Stunden, abhängig vom Umfang des Materials.

KI-Systeme können auch konfiguriert werden, um bestimmte Kontexte zu erkennen – zum Beispiel das Verschleiern von Zivilgesichtern, während Beamtengesichter bei Bedarf sichtbar bleiben, was einen nuancierteren Ansatz zum Datenschutz im Strafverfolgungskontext ermöglicht.

Eine Person streckt ihre Hand aus, verdeckt durch einen projizierten Binärcode in Schwarzweiß, wodurch eine geheimnisvolle und digitale Atmosphäre entsteht.

Warum ist die Kennzeichen-Anonymisierung für Polizeibehörden besonders wichtig?

Kennzeichen enthalten eindeutige Identifikatoren, die direkt mit Personen verknüpft sind, wodurch sie gemäß DSGVO und ähnlichen Datenschutzvorschriften zu personenbezogenen Daten werden. Wenn die Polizei Aufnahmen von Verkehrskontrollen, Unfällen oder Streifenaktivitäten teilt, könnten sichtbare Kennzeichen die Identitäten und Bewegungen von Bürgern ohne deren Einwilligung offenlegen.

Die Herausforderung bei der Kennzeichen-Anonymisierung liegt in der Vielfalt der Formate, der teilweisen Sichtbarkeit im Filmmaterial und der Notwendigkeit, sie aus verschiedenen Winkeln und unter unterschiedlichen Lichtverhältnissen zu verarbeiten. KI-gestützte Systeme zeichnen sich hier aus, indem sie Kennzeichenmuster erkennen, selbst wenn diese nur teilweise sichtbar oder aus ungewöhnlichen Winkeln aufgenommen wurden.

Für Strafverfolgungsbehörden ist die ordnungsgemäße Kennzeichen-Anonymisierung nicht nur für die Einhaltung der Vorschriften unerlässlich, sondern auch zum Schutz laufender Ermittlungen und zur Verhinderung potenzieller Belästigung von Personen, deren Fahrzeuge in veröffentlichtem Filmmaterial identifiziert werden könnten.

Wie verbessern On-Premise-Lösungen die Datensicherheit bei der polizeilichen Videoverarbeitung?

On-Premise-Anonymisierungssoftware bietet erhebliche Vorteile für Strafverfolgungsbehörden, die sensibles visuelles Beweismaterial verarbeiten. Im Gegensatz zu Cloud-basierten Alternativen bleiben bei diesen Lösungen alle Daten innerhalb der physischen Infrastruktur der Organisation, wodurch Bedenken bezüglich der Übertragung sensibler Informationen an externe Server beseitigt werden.

Dieser Ansatz gewährleistet vollständige Kontrolle über die Datenverarbeitungskette, eine kritische Überlegung für Materialien, die Teil aktiver Ermittlungen sein könnten. On-Premise-Systeme können in bestehende Sicherheitsprotokolle integriert werden und hinter den Firewalls der Behörde operieren, wodurch potenzielle Angriffsvektoren erheblich reduziert werden.

Darüber hinaus ermöglichen On-Premise-Lösungen Anpassungen an spezifische Abteilungsbedürfnisse und Compliance-Anforderungen. Sie können konfiguriert werden, um mit lokalen Datenschutzgesetzen und internen Protokollen übereinzustimmen, ohne von den Update-Zeitplänen oder der Dienstverfügbarkeit externer Anbieter abhängig zu sein.

Eine Person klettert eine lange Leiter hinauf, die in einen wolkenverhangenen Himmel ragt, wodurch eine surreale und traumhafte Szene entsteht.

Welche Effizienzgewinne bringt KI in den Video-Anonymisierungsworkflow?

KI-gestützte Anonymisierung rationalisiert den gesamten Videoverarbeitungsworkflow erheblich. Was zuvor eine Frame-für-Frame manuelle Bearbeitung erforderte, kann jetzt durch automatisierte Erkennung und Verschleierung erreicht werden. Dieser Effizienzgewinn ermöglicht es dem Strafverfolgungspersonal, sich auf ihre Kernaufgaben zu konzentrieren, anstatt auf mühsame Bearbeitungsaufgaben.

Moderne Systeme können mehrere Videos gleichzeitig verarbeiten und Stunden an Filmmaterial in der Zeit bearbeiten, die ein menschlicher Editor benötigen würde, um nur wenige Minuten Inhalt zu anonymisieren. Diese Skalierbarkeit ist besonders wertvoll bei größeren Vorfällen, wenn große Mengen an Material unter engen Fristen verarbeitet werden müssen.

Die Automatisierung bringt auch Konsistenz in den Anonymisierungsprozess. Während menschliche Bearbeiter Identifikatoren übersehen könnten, wenn sie ermüdet oder in Eile sind, halten KI-Systeme auch bei den längsten Videos konstante Erkennungsraten aufrecht und gewährleisten so einen zuverlässigeren Datenschutz.

A humanoid figure in a suit with a surveillance camera for a head, set against a gray background.

Wie können Polizeibehörden die Einhaltung von Vorschriften beim Teilen von Videos mit Medien sicherstellen?

Beim Teilen von Videomaterial mit Medienorganisationen müssen Strafverfolgungsbehörden sicherstellen, dass alle Inhalte vor der Übertragung ordnungsgemäß anonymisiert sind. Dies erfordert die Einrichtung klarer Protokolle für die Inhaltsüberprüfung und die Implementierung technologischer Lösungen, die Materialien schnell verarbeiten können, ohne Datenschutzstandards zu kompromittieren.

Ein umfassender Ansatz umfasst die Verwendung KI-gestützter Anonymisierungssoftware mit Validierungsfunktionen, die es Beamten ermöglichen, zu überprüfen und zu bestätigen, dass alle sensiblen Elemente ordnungsgemäß unkenntlich gemacht wurden. Einige fortschrittliche Systeme bieten Konfidenzmetriken für Erkennungen, die Bereiche hervorheben, die möglicherweise zusätzliche menschliche Überprüfung erfordern.

Behörden sollten auch detaillierte Verarbeitungsprotokolle führen, die dokumentieren, wann und wie Videos vor dem externen Teilen anonymisiert wurden. Diese Prüfpfade können sich als unschätzbar wertvoll erweisen, wenn später Compliance-Fragen aufkommen, und demonstrieren das Engagement der Behörde für Datenschutzprinzipien.

Zwei Schaufensterpuppen in Hemden und Krawatten stehen in einem Bekleidungsgeschäft, umgeben von Kleiderständern. Schwarz-Weiß-Bild.

Welche Funktionen sollten Strafverfolgungsbehörden in Anonymisierungssoftware suchen?

Bei der Bewertung von Anonymisierungstools sollten Strafverfolgungsbehörden Software mit hoher Erkennungsgenauigkeit unter verschiedenen Bedingungen priorisieren – einschließlich Nachtaufnahmen, teilweise verdeckter Subjekte und verschiedener Kamerawinkel. Das System sollte auch bei Videos geringerer Qualität aus älteren Überwachungssystemen effektiv bleiben.

Die Verarbeitungsgeschwindigkeit ist ebenso entscheidend, insbesondere für Behörden, die große Mengen an Filmmaterial verarbeiten. Suchen Sie nach Lösungen, die Batch-Verarbeitungsfunktionen und effiziente Ressourcennutzung bieten, um Hardwareanforderungen zu minimieren.

Weitere wesentliche Funktionen umfassen anpassbare Unkenntlichmachungsoptionen (Verpixelung, solide Masken oder Unschärfeeffekte), die Fähigkeit, Objekte über Frames hinweg zu verfolgen, um eine konsistente Anonymisierung aufrechtzuerhalten, und benutzerfreundliche Schnittstellen, die minimale Schulung erfordern. Schließlich hilft eine umfassende Auditprotokollierung, Compliance-Bemühungen nachzuweisen, falls Fragen zu Datenschutzmaßnahmen aufkommen.

3D-Illustration eines Dokuments mit einem Benutzersymbol und einem Bleistift, umgeben von verschieden großen Kästchen im Hintergrund.

Wie entwickelt sich die KI-basierte Anonymisierung, um zukünftige Datenschutzherausforderungen zu bewältigen?

Die nächste Generation der KI-Anonymisierungstechnologie entwickelt ein ausgeklügelteres kontextuelles Verständnis, das es Systemen ermöglicht, zunehmend nuancierte Entscheidungen darüber zu treffen, was basierend auf den spezifischen Umständen jedes Videos anonymisiert werden sollte. Dies könnte die Erkennung von öffentlichen Amtsträgern umfassen, die keine Anonymisierung benötigen, während die Identitäten von Zivilpersonen geschützt werden.

Fortschrittliche Tracking-Algorithmen verbessern die Fähigkeit des Systems, eine konsistente Anonymisierung aufrechtzuerhalten, selbst wenn Subjekte aus dem Bild wandern oder vorübergehend verdeckt sind. Dies reduziert die Notwendigkeit menschlicher Eingriffe und erhöht die Gesamtzuverlässigkeit.

Auch die Forschung an reversiblen Anonymisierungstechniken schreitet voran, die es autorisiertem Personal ermöglichen würden, Inhalte bei rechtlicher Notwendigkeit zu ""de-anonymisieren"", während Datenschutzmaßnahmen für die allgemeine Verbreitung aufrechterhalten werden. Dieser ausgewogene Ansatz könnte sowohl Datenschutz-Compliance als auch investigative Flexibilität bieten, wenn nötig.

Eine Gruppe uniformierter Soldaten mit Orden, verschwommenen Gesichtern und Gewehren läuft in Formation vor einem Bus. Schwarzweißfoto.

Welche praktischen Schritte können Polizeibehörden unternehmen, um eine effektive Video-Anonymisierung zu implementieren?

Beginnen Sie mit einer gründlichen Bewertung der Videoverarbeitungsworkflows Ihrer Behörde, um Datenschutzlücken und Compliance-Defizite zu identifizieren. Diese Überprüfung sollte sowohl technisches Personal als auch Rechtsberater einbeziehen, die mit den geltenden Datenschutzbestimmungen vertraut sind.

Evaluieren Sie als Nächstes verfügbare Anonymisierungslösungen mit Schwerpunkt auf denen, die speziell für die Bedürfnisse von Strafverfolgungsbehörden entwickelt wurden. Erwägen Sie Demonstrationen mit Ihrem eigenen Beispielmaterial, um die Leistung in realen Szenarien zu testen, die für Ihre Operationen relevant sind.

Entwickeln Sie klare Protokolle dafür, wann und wie Videos vor dem Teilen anonymisiert werden sollten, und bieten Sie umfassende Schulungen für alle Mitarbeiter an, die an Medienbeziehungen oder der Veröffentlichung von Inhalten beteiligt sind. Implementieren Sie schließlich regelmäßige Compliance-Audits, um sicherzustellen, dass die Anonymisierungsprozesse effektiv bleiben, während sich Technologie und Vorschriften weiterentwickeln.

Bereit, die Datenschutz-Compliance Ihrer Behörde zu stärken? Kontaktieren Sie uns, um zu erfahren, wie Gallio Pro Ihren Video-Anonymisierungsworkflow automatisieren kann, oder laden Sie unsere Demo herunter, um unsere KI-gestützte Technologie in Aktion zu sehen.

Person, die an einem Laptop mit Design-Skizzen und Diagrammen auf einem Holztisch arbeitet, von oben betrachtet.

Referenzliste

  1. Europäische Union. Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung). Amtsblatt der Europäischen Union L 119 vom 4. Mai 2016. Verfügbar unter: https://eur-lex.europa.eu/eli/reg/2016/679/oj Europäische Union. Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung. Amtsblatt der Europäischen Union L 119 vom 4. Mai 2016. Verfügbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016L0680 Artikel-29-Datenschutzgruppe. Leitlinien für automatisierte Entscheidungen im Einzelfall und Profiling im Sinne der Verordnung (EU) 2016/679. WP251rev.01, angenommen am 3. Oktober 2017, zuletzt überarbeitet und angenommen am 6. Februar 2018. Verfügbar unter: https://ec.europa.eu/newsroom/article29/items/612053 Europäischer Datenschutzausschuss. Leitlinien 1/2020 zur Verarbeitung personenbezogener Daten im Zusammenhang mit vernetzten Fahrzeugen und mobilitätsbezogenen Anwendungen. Version 2.0, angenommen am 9. März 2021. Verfügbar unter: https://edpb.europa.eu/sites/default/files/files/file1/edpb_guidelines_202001_connected_vehicles.pdf Europäischer Datenschutzausschuss. Leitlinien 05/2022 zum Einsatz von Gesichtserkennungstechnologie im Bereich der Strafverfolgung. Version 2.0, angenommen am 26. April 2023. Verfügbar unter: https://edpb.europa.eu/system/files/2023-04/edpb_guidelines_202205_frtlawenforcement_v2_en.pdf Information Commissioner's Office (ICO). Anonymisierung: Verhaltenskodex zum Umgang mit Datenschutzrisiken. Version 1.0, November 2012. Verfügbar unter: https://ico.org.uk/media/1061/anonymisation-code.pdf Voigt, Paul und Axel von dem Bussche. Die EU-Datenschutz-Grundverordnung (DSGVO): Ein praktischer Leitfaden. 2. Aufl. Cham: Springer International Publishing, 2022. Kuner, Christopher, Lee A. Bygrave und Christopher Docksey (Hrsg.). Die EU-Datenschutz-Grundverordnung (DSGVO): Ein Kommentar. Oxford: Oxford University Press, 2020. Gutwirth, Serge, Ronald Leenes und Paul De Hert (Hrsg.). Datenschutz neu laden: Multidisziplinäre Erkenntnisse und aktuelle Herausforderungen. Dordrecht: Springer, 2014. Bygrave, Lee A. Datenschutzrecht: Eine internationale Perspektive. Oxford: Oxford University Press, 2014. Goodfellow, Ian, Yoshua Bengio und Aaron Courville. Deep Learning. Cambridge, MA: MIT Press, 2016. Russell, Stuart und Peter Norvig. Künstliche Intelligenz: Ein moderner Ansatz. 4. Aufl. Harlow: Pearson Education Limited, 2021. Li, Tiancheng und Ninghui Li. „Zum Kompromiss zwischen Datenschutz und Nutzen bei der Datenveröffentlichung.“ Proceedings der 15. internationalen ACM SIGKDD-Konferenz zu Wissensentdeckung und Data Mining, 2009: 517–526. Sweeney, Latanya. „K-Anonymität: Ein Modell zum Schutz der Privatsphäre.“ International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 10, Nr. 5 (2002): 557–570. Ohm, Paul. „Gebrochene Versprechen zum Datenschutz: Reaktion auf das überraschende Scheitern der Anonymisierung.“ UCLA Law Review 57 (2010): 1701–1777. Narayanan, Arvind und Vitaly Shmatikov. „Robuste Deanonymisierung großer, spärlicher Datensätze.“ IEEE-Symposium für Sicherheit und Datenschutz 2008, 2008: 111–125. El Emam, Khaled. Leitfaden zur De-Identifizierung personenbezogener Gesundheitsdaten. Boca Raton: CRC Press, 2013. Dwork, Cynthia. „Differential Privacy: Eine Ergebnisübersicht.“ Internationale Konferenz zu Theorie und Anwendung von Berechnungsmodellen, 2008: 1–19. Gates, Kelly A. Unsere biometrische Zukunft: Gesichtserkennungstechnologie und die Kultur der Überwachung. New York: NYU Press, 2011. Lyon, David. Überwachungsstudien: Ein Überblick. Cambridge: Polity Press, 2007. Introna, Lucas D. und David Wood. „Algorithmische Überwachung im Bild: Die Politik von Gesichtserkennungssystemen.“ Surveillance & Society 2, Nr. 2/3 (2004): 177–198. Smith, Gavin J.D. „Hinter den Kulissen: Untersuchung von Devianzkonstruktionen und informellen Praktiken unter Videoüberwachungs-Kontrollraumbetreibern in Großbritannien.“ Surveillance & Society 2, Nr. 2/3 (2004): 376–395. Agentur der Europäischen Union für Grundrechte. Gesichtserkennungstechnologie: Grundrechtliche Aspekte im Kontext der Strafverfolgung. Luxemburg: Amt für Veröffentlichungen der Europäischen Union, 2019. Verfügbar unter: https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf Wissenschaftlicher Dienst des Europäischen Parlaments. Die Auswirkungen der Datenschutz-Grundverordnung (DSGVO) auf künstliche Intelligenz. PE 624.261, Juli 2020. Verfügbar unter: https://www.europarl.europa.eu/RegData/etudes/STUD/2020/641530/EPRS_STU(2020)641530_EN.pdf Deloitte. Datenschutz durch Technikgestaltung: Aktuelle Praktiken in Estland, Finnland und Deutschland. 2019. Verfügbar unter: https://www2.deloitte.com/content/dam/Deloitte/ee/Documents/risk/privacy-by-design-study.pdf Gerichtshof der Europäischen Union. Maximilian Schrems gegen den Datenschutzbeauftragten. Rechtssache C-362/14, Urteil vom 6. Oktober 2015 (Schrems I). Gerichtshof der Europäischen Union. Datenschutzbeauftragter gegen Facebook Ireland Limited und Maximilian Schrems. Rechtssache C-311/18, Urteil vom 16. Juli 2020 (Schrems II). Europäischer Gerichtshof für Menschenrechte. Big Brother Watch und andere gegen das Vereinigte Königreich. Beschwerdenummern 58170/13, 62322/14 und 24960/15, Urteil vom 25. Mai 2021. Französische Datenschutzbehörde (CNIL). Gesichtserkennung: Für eine den Herausforderungen gerecht werdende Debatte. November 2019. Verfügbar unter: https://www.cnil.fr/sites/default/files/atoms/files/facial-recognition.pdf Bundesbeauftragter für den Datenschutz und die Informationsfreiheit. Künstliche Intelligenz und Datenschutz. Tätigkeitsbericht 2019–2020. Verfügbar unter: https://www.bfdi.bund.de/SharedDocs/Downloads/EN/TB/TB_2019_2020.pdf Informationsbeauftragter des Vereinigten Königreichs. Aktualisierter Bericht zu Adtech und Real Time Bidding. Juni 2019. Verfügbar unter: https://ico.org.uk/media/about-the-ico/documents/2615156/adtech-real-time-bidding-report-201906-dl191220.pdf Internationale Organisation für Normung. ISO/IEC 27001:2013 Informationstechnologie – Sicherheitstechniken – Informationssicherheits-Managementsysteme – Anforderungen. Genf: ISO, 2013. Nationales Institut für Standards und Technologie. Datenschutz-Framework: Ein Tool zur Verbesserung des Datenschutzes durch unternehmensweites Risikomanagement. NIST Datenschutz-Framework Version 1.0, Januar 2020. Verfügbar unter: https://nvlpubs.nist.gov/nistpubs/CSWP/NIST.CSWP.01162020.pdf IEEE Standards Association. IEEE 2857-2021 – IEEE-Standard für Datenschutztechnik und Risikomanagement. New York: IEEE, 2021.