Inference Attack - Definition
Ein Inference Attack (auch: Inferenzangriff) bezeichnet eine Klasse von Angriffen, bei denen aus indirekten Signalen Rückschlüsse auf die Identität, Attribute oder die bloße Teilnahme einer Person an einem Datensatz gezogen werden - selbst dann, wenn die Daten anonymisiert oder maskiert wurden. In normativer Hinsicht entspricht dieses Konzept den Risiken der Inferenz und der Datenverknüpfung, wie sie in ISO/IEC 20889:2018 und NISTIR 8053:2015 beschrieben sind, sowie dem sogenannten Risiko der „Inferability“, das von der Artikel‑29‑Datenschutzgruppe (WP29) in ihrer Stellungnahme zu Anonymisierungstechniken aus dem Jahr 2014 (WP216) hervorgehoben wurde. Im Kontext von Bild- und Videodaten betrifft ein Inference Attack unter anderem den Versuch, eine Person trotz verpixeltem oder unkenntlich gemachtem Gesicht zu identifizieren oder sensible Informationen aus dem Bildkontext, aus Metadaten oder aus dem Verhalten eines Systems abzuleiten.
Die Rolle von Inference Attacks bei der Anonymisierung von Bildern und Videos
In der Computer Vision liegt ein Inference Attack vor, wenn trotz Unschärfe von Gesichtern oder Kfz‑Kennzeichen eine Identifikation oder Attributzuordnung über andere Merkmale möglich ist, etwa über Kleidung, Gangbild, Körperform, räumliche Beziehungen, Spiegelungen, Tonspuren, eingeblendete Texte oder sogar über das KI‑Modell selbst (z. B. dessen Antworten oder Parameter). Deep‑Learning‑Verfahren sind essenziell für den Aufbau von Modellen zur Gesichts‑ und Kennzeichenerkennung, die den Verpixelungs‑ oder Maskierungsprozess steuern. Dieselben Modellklassen können jedoch auch offensiv eingesetzt werden (z. B. zur Rekonstruktion oder Attributklassifikation), wodurch ein Inferenzangriffsvektor gegen bereits anonymisiertes Material entsteht.
Das Risiko eines Inference Attack hängt stark vom Angreifermodell ab: vom Zugang zu Originaldaten, vom Grad der Bearbeitung (Stärke der Unschärfe, Größe der Maske), von der zeitlichen Konsistenz der Maskierung sowie vom möglichen Zugriff auf Parameter des zur Anonymisierung eingesetzten Modells. Eine deutliche Reduktion der Angriffsfläche wird durch On‑Premise‑Verarbeitung und den Verzicht auf Protokolle erreicht, die Detektionen oder andere identifizierende Signale enthalten.
Technologien und Angriffsvektoren (Inference Attack)
Inference Attacks in Bild‑ und Videodaten umfassen verschiedene Bedrohungsklassen. Die folgende Tabelle ordnet die wichtigsten Typen und ihren Bezug zur Anonymisierung von Gesichtern und Kennzeichen.
Angriffstyp | Kurzbeschreibung | Beispiel in Bild/Video | Datenquelle des Angreifers
|
|---|---|---|---|
Datenverknüpfung (Linkage) | Zusammenführung mit externen Daten zur Identifikation | Abgleich von Körperbau, Kleidung und Ort mit Social‑Media‑Aufnahmen | Öffentliche Fotos, Veranstaltungsregister, Geolokationsdaten |
Attribut‑Inference | Ableitung persönlicher Merkmale aus Kontextinformationen | Bestimmung des Arbeitgebers über ein Logo auf der Kleidung, Rollenbestimmung über Uniformen | Visuelle Merkmale außerhalb der maskierten Bereiche |
Model Inversion | Rekonstruktion von Eingabedaten aus Modellparametern | Annähernde Rekonstruktion eines Gesichts aus einem Erkennungsmodell | Modellgewichte, Vorhersage‑API |
Membership Inference | Feststellung, ob ein Bild Teil des Trainingsdatensatzes war | Nachweis, dass ein konkretes Gesicht zum Training genutzt wurde | Antwortstatistiken, Wahrscheinlichkeitswerte des Modells |
De‑Obfuskation | Versuch der Wiederherstellung unkenntlich gemachter Inhalte | Einsatz von Super‑Resolution oder GANs zur Annäherung an Gesichtszüge | Bearbeitetes Bildmaterial, SR‑/GAN‑Modelle |
Das Risiko von Membership‑Inference‑Angriffen wurde in der wissenschaftlichen Literatur für ML‑Modelle nachgewiesen, unter anderem von Shokri et al. 2017 (IEEE S&P) sowie Nasr et al. 2019 (IEEE S&P). Videospezifische Risiken der De‑Obfuskation und des Attributlecks in bearbeitetem Material wurden unter anderem von Raval, Machanavajjhala und Pan (NDSS 2017) sowie in regulatorischen Analysen zur Wirksamkeit von Anonymisierung diskutiert.
Zentrale Parameter und Metriken zur Risikobewertung
Die Bewertung der Anfälligkeit für einen Inference Attack sollte Datenschutz‑ und Nutzbarkeitsmetriken kombinieren. In der Praxis haben sich folgende Kennzahlen bewährt:
- Attack Success Rate (ASR) - Anteil erfolgreicher Inferenzversuche: ASR = Anzahl korrekter Schlussfolgerungen / Anzahl der Versuche; einsetzbar für Identifikation, Attribut‑Inference und Membership Inference.
- AUC bzw. TPR/FPR bei Membership‑Inference‑Angriffen - Maß für die Trennschärfe der Modellantworten zwischen Trainings‑ und Nicht‑Trainingsdaten (Shokri et al., 2017).
- Ähnlichkeit von Gesichts‑Embeddings vor und nach der Bearbeitung - z. B. kosinische Distanz von Vektoren aus ArcFace‑Modellen; sinkende Ähnlichkeit deutet auf geringeres Re‑Identifikationsrisiko hin.
- Maskenabdeckung und Unschärfebudget - prozentuale Abdeckung von Gesicht oder Kennzeichen sowie Filterparameter (z. B. Kernelgröße, Gauß‑Sigma). Größere Abdeckung und stärkere Unschärfe reduzieren in der Regel die De‑Obfuskation.
- Recall der Objekterkennung für zu anonymisierende Elemente - Anteil korrekt erkannter Gesichter/Kennzeichen über alle Frames hinweg. Nicht‑Erkennungen (hohe FNR) stellen die kritischsten Identifikationsvektoren dar.
- Zeitliche Stabilität der Maskierung - konsistente Position und Größe der Maske über aufeinanderfolgende Frames, um kurzzeitige Offenlegungen bei Bewegung zu vermeiden.
- Nutzbarkeitsmetriken - z. B. mAP für nicht‑personenbezogene Objekterkennungsaufgaben nach der Bearbeitung, um den Trade‑off zwischen Datenschutz und Verwertbarkeit zu kontrollieren.
Herausforderungen und Grenzen bei Bild‑ und Videodaten
Besonders kritisch sind Fälle, in denen sich die Identität aus anderen Elementen als Gesicht oder Kennzeichen ableiten lässt. Personenerkennung ohne Gesicht, Ganganalyse sowie zeitlich‑räumliche Korrelationen zwischen verschiedenen Datenquellen erhöhen das Inferenzrisiko erheblich. Unzureichende Maskierung (zu klein, instabil oder mit geringer Unschärfe) oder das Belassen identifizierbarer Metadaten verstärken dieses Risiko zusätzlich. Umgekehrt kann eine zu aggressive Bearbeitung den Zweck des Materials beeinträchtigen, etwa bei Sicherheits‑ oder Compliance‑Audits.
Aus Sicht der DSGVO besteht das Ziel darin, einen Zustand zu erreichen, in dem eine Identifizierung nicht mehr mit vernünftigerweise wahrscheinlichen Mitteln möglich ist (DSGVO, Erwägungsgrund 26). Die Leitlinien der WP29/EDPB (2014, WP216) betonen ausdrücklich die Risiken von Inferenz und Datenverknüpfung für die Wirksamkeit der Anonymisierung. In der Praxis erfordert die Veröffentlichung von Bildmaterial grundsätzlich eine Einwilligung, mit gesetzlich vorgesehenen Ausnahmen im Zivil‑ und Urheberrecht (z. B. Personen der Zeitgeschichte, Beiwerk, Vergütung für das Posieren).
Anwendungsbeispiele und Best Practices zur Risikominimierung
Bei Systemen zur Unkenntlichmachung von Gesichtern und Kennzeichen sollten technische und organisatorische Maßnahmen kombiniert werden. Die folgenden Best Practices sind besonders relevant zur Abwehr von Inference Attacks:
- Starke und vollständige Maskierung sensibler Bereiche - Masken, die das gesamte Gesicht bzw. das gesamte Kennzeichen abdecken, zeitlich stabil sind und einen ausreichenden Rand besitzen. Schwarze Balken oder starke Pixelisierung reduzieren das Rekonstruktionsrisiko deutlich stärker als leichte Unschärfe (WP29, 2014).
- Entfernung oder Normalisierung von Metadaten - EXIF‑Daten, Geolokation und Zeitstempel, die eine Datenverknüpfung ermöglichen.
- Reduktion des Bildkontexts - bei der Veröffentlichung gezieltes Zuschneiden, um erkennbare Kleidung, Ausweise oder Spiegelungen zu vermeiden.
- Modell‑Härtung - Regularisierung und Privacy‑Techniken (z. B. Differential Privacy Training), um Membership‑Inference‑ und Model‑Inversion‑Risiken zu senken.
- On‑Premise‑Verarbeitung und minimale Protokollierung - reduzierte Schnittstellenexposition und der Verzicht auf Logs mit Detektionsergebnissen verkleinern die Angriffsfläche.
- Manueller Modus für nicht automatisch erkennbare Elemente - Logos, Tätowierungen, Namensschilder oder Bildschirminhalte sollten manuell maskiert werden, wenn sie Rückschlüsse ermöglichen.
Bei Tools der Klasse Gallio PRO ist die Automatisierung auf Gesichter und Kfz‑Kennzeichen fokussiert, was den dominierenden Identifikationsvektoren in visuellen Daten entspricht. Die fehlende Echtzeitverarbeitung beeinflusst das Inference‑Attack‑Risikomodell für fertige Dateien nicht, vereinfacht jedoch die Zugriffskontrolle und die Nachvollziehbarkeit der Verarbeitungskette.
Normative Referenzen und Quellen
- DSGVO - Verordnung (EU) 2016/679, Erwägungsgrund 26 und Art. 4: Definition personenbezogener Daten und Identifizierbarkeit. Quelle: EUR‑Lex.
- WP29 (heute: EDPB), Opinion 05/2014 on Anonymisation Techniques (WP216), 10.04.2014 - Risiken von Singling‑out, Linkability und Inferability. Quelle: Archive der Europäischen Kommission.
- ISO/IEC 20889:2018, Privacy Enhancing Data De‑Identification - Terminologie und Klassifikation von Techniken. Herausgeber: ISO/IEC JTC 1/SC 27.
- ISO/IEC 27559:2022, Privacy Enhancing Data De‑Identification Framework - Rahmenwerk zur Risiko‑ und Wirksamkeitsbewertung. Herausgeber: ISO/IEC JTC 1/SC 27.
- NISTIR 8053:2015, De‑Identification of Personal Information - Re‑Identifikations‑ und Inferenzrisiken sowie Minderungspraktiken. Herausgeber: NIST.
- Shokri et al., Membership Inference Attacks Against Machine Learning Models, IEEE S&P 2017.
- Nasr, Shokri, Houmansadr, Comprehensive Privacy Analysis of Deep Learning, IEEE S&P 2019.
- Raval, Machanavajjhala, Pan, What You Mark Is What You Get, NDSS 2017.
- Polnisches Urheberrechtsgesetz vom 4. Februar 1994, Art. 81 - Voraussetzungen für die Verbreitung von Bildnissen. Quelle: isap.sejm.gov.pl.
- Zivilgesetzbuch, Art. 23-24 - Schutz der Persönlichkeitsrechte, einschließlich des Bildnisses. Quelle: isap.sejm.gov.pl.