Was sind falsch-negative Ergebnisse (False Negatives)?

Falsch-negative Ergebnisse – Definition

Falsch-negative Ergebnisse sind Fälle, in denen ein Bild- oder Videoanalysesystem ein Objekt nicht erkennt, das tatsächlich in den visuellen Daten vorhanden ist. Im Kontext der Anonymisierung visueller Daten bezieht sich ein falsch-negatives Ergebnis auf das Versäumnis, ein Element zu identifizieren, das maskiert werden muss, wie ein Gesicht, ein Kennzeichen oder eine Person.

Als Folge wird das Objekt nicht anonymisiert, was potenziell personenbezogene Daten offenlegt und Datenschutzgesetze wie die DSGVO verletzt.

Ursachen falsch-negativer Ergebnisse

Ursache

Beschreibung

Verdeckung

Objekt teilweise blockiert oder hinter einem anderen Gegenstand verborgen

Schlechte Lichtverhältnisse

Niedrige Bildqualität oder geringer Kontrast verhindern genaue Erkennung

Ungewöhnliche Ausrichtung

Objekt in unerwartetem Winkel oder Haltung präsentiert

KI-Modell-Limitierungen

Schlechte Trainingsdatenvielfalt, schwache Architektur, falsch konfigurierte Hyperparameter

Hoher Erkennungsschwellenwert

Strenger Konfidenzscore kann gültige Erkennungen verwerfen

Auswirkungen auf Anonymisierungsprozesse

  • Datenschutzverletzungen unter DSGVO – Verpasste Erkennung kann personenbezogene Daten offenlegen
  • Verlust von Nutzervertrauen – Unzureichende Anonymisierung kann Identitäten preisgeben
  • Nichteinhaltung von Privacy by Design – Systeme, die zu falsch-negativen Ergebnissen neigen, erfüllen rechtliche Standards nicht
  • Workflow-Unterbrechung – Erfordert manuelle Überprüfung oder Neuverarbeitung betroffenen Materials

Minimierung falsch-negativer Ergebnisse

Methode

Beschreibung

Fortgeschrittene KI-Architekturen (z.B. CNNs, Transformers)

Bessere Generalisierung und Erkennung in diversen Szenarien

Diverse Trainingsdatensätze

Einbeziehung verschiedener Beleuchtungen, Winkel, Umgebungen

Modell-Ensembles

Kombination von Ergebnissen mehrerer Modelle zur Verbesserung der Zuverlässigkeit

Schwellenwert-Anpassung

Anpassung des Konfidenzscores zur Optimierung des Recalls

Manuelle Validierung

Human-in-the-Loop-Überprüfung in sensiblen Anwendungsfällen

Beispiele

  • Ein abgewandtes Gesicht in einer Menschenmenge wird nicht erkannt und bleibt unverwischt
  • Ein Kennzeichen wird nachts aufgrund von Scheinwerferblendung übersehen
  • Eine Person im tiefen Schatten wird vom Erkennungsmodell nicht erkannt