Czym są false negatives (fałszywe negatywy)?

Definicja

Fałszywe negatywy (false negatives) to przypadki, w których system analizy obrazu lub wideo nieprawidłowo klasyfikuje obiekt, który rzeczywiście występuje w danych wizualnych, jako niewystępujący. W kontekście anonimizacji danych wizualnych, fałszywy negatyw oznacza nieprawidłowy brak wykrycia elementu wymagającego ukrycia, takiego jak twarz, tablica rejestracyjna, czy ciało osoby.

Skutkiem fałszywego negatywu jest brak anonimizacji danych osobowych, co może prowadzić do ich nieuprawnionego ujawnienia i naruszenia przepisów ochrony danych (np. RODO).

Przyczyny fałszywych negatywów

Przyczyna

Opis

Zasłonięcie obiektu

Częściowa obecność obiektu w kadrze lub jego zakrycie innym elementem (np. maska na twarzy, inny obiekt)

Słabe warunki oświetleniowe

Niska jakość obrazu, szumy, brak kontrastu utrudniają poprawne wykrycie

Nietypowa orientacja

Obiekt ukazany pod nietypowym kątem lub w nieoczekiwanej pozycji

Niedoskonałość modelu AI

Zbyt mała różnorodność danych treningowych, błędna architektura modelu, nieoptymalne hiperparametry

Zbyt wysoki próg decyzyjny (confidence threshold)

Wysoka wartość progu może skutkować odrzuceniem prawidłowych detekcji

Wpływ fałszywych negatywów na proces anonimizacji

  • Ryzyko naruszenia RODO - brak ukrycia danych osobowych może skutkować sankcjami administracyjnymi
  • Utrata zaufania użytkowników - nienależycie zanonimizowane dane mogą ujawnić tożsamość osób postronnych
  • Brak zgodności z zasadą Privacy by Design - systemy narażone na fałszywe negatywy nie spełniają założeń bezpieczeństwa danych
  • Zaburzenie procesów automatyzacji - wymagane ręczne poprawki lub ponowne przetwarzanie materiału

Minimalizacja fałszywych negatywów

Metoda

Opis

Zaawansowane modele AI (np. CNN, transformers)

Ulepszone architektury zwiększają zdolność generalizacji i wykrywania niestandardowych przypadków

Zróżnicowane dane treningowe

Wzbogacenie zbiorów o różnorodne warunki oświetleniowe, kąty, otoczenie

Ensemble modeli

Łączenie wyników z wielu modeli w celu zwiększenia skuteczności

Optymalizacja progu detekcji

Regulacja wartości confidence score w celu redukcji błędów negatywnych

Ręczna walidacja wyników

Dodatkowa kontrola na etapie weryfikacji końcowej, szczególnie w materiałach wrażliwych

Przykłady

  • Niewykrycie twarzy osoby stojącej tyłem w tłumie - twarz nie zostaje zanonimizowana mimo obecności w materiale
  • Niezanonimizowany numer rejestracyjny pojazdu w nocy - z powodu odbłysku światła reflektorów system nie rozpoznaje numeru
  • Pominięcie osoby w cieniu na nagraniu z monitoringu - warunki oświetleniowe uniemożliwiają detekcję