Czym jest sztuczna inteligencja w bezpieczeństwie danych?

Sztuczna inteligencja w bezpieczeństwie danych - definicja

Sztuczna inteligencja (AI) w bezpieczeństwie danych to zastosowanie metod uczenia maszynowego i głębokiego uczenia do identyfikacji, klasyfikacji, przetwarzania i ochrony informacji, tak aby ograniczać ryzyko naruszeń poufności, integralności i dostępności. W kontekście anonimizacji zdjęć i nagrań wideo chodzi o automatyczne wykrywanie elementów umożliwiających identyfikację osób, w szczególności twarzy oraz tablic rejestracyjnych, a następnie o ich zniekształcenie (np. rozmycie, mozaika) zgodnie z zasadą minimalizacji danych i ochroną danych w fazie projektowania (art. 5 i art. 25 RODO - Rozporządzenie (UE) 2016/679). Definicję i ramy bezpiecznego stosowania AI uzupełniają normy ISO/IEC dotyczące zarządzania ryzykiem AI (ISO/IEC 23894:2023) oraz systemów zarządzania bezpieczeństwem informacji (ISO/IEC 27001:2022).

Rola AI w anonimizacji obrazów i wideo

W anonimizacji obrazów i materiału wideo AI jest warstwą detekcyjną i decyzyjną. Modele głębokiego uczenia uczone na zbiorach twarzy oraz tablic rejestracyjnych rozpoznają te obiekty w różnych warunkach, a następnie algorytmy przekształceń nakładają rozmycie lub pikselizację. Wymaga to modelu uprzednio wytrenowanego na reprezentatywnych danych - bez tego detekcja będzie niekompletna, co bezpośrednio zwiększa ryzyko ujawnienia danych osobowych. W praktyce:

  • detektor lokalizuje twarze i tablice rejestracyjne z wykorzystaniem konwolucyjnych sieci neuronowych lub modeli wizji transformacyjnej,
  • mechanizmy śledzenia obiektów stabilizują maski w sekwencjach wideo,
  • filtry obróbki obrazu wprowadzają zniekształcenie na poziomie pikseli.

W narzędziach klasy on-premise, takich jak Gallio PRO, AI automatyzuje zamazywanie twarzy i tablic rejestracyjnych. Inne elementy (np. logotypy, tatuaże, tabliczki z imionami, dokumenty) można zamazać ręcznie w edytorze. Taki podział może minimalizować zakres przetwarzania i upraszczać ocenę ryzyka zgodnie z zasadą privacy by design (art. 25 RODO) oraz zaleceniami EDPB dotyczącymi urządzeń wizyjnych (Wytyczne 3/2019, ostateczna wersja 2020).

Technologie i architektury (wizja komputerowa)

Konstrukcja rozwiązań AI do anonimizacji bazuje na ustalonych paradygmatach wizji komputerowej. Wybór technologii wpływa na czułość i szybkość, a pośrednio na ryzyko resztkowe ujawnienia danych. Najczęściej stosuje się:

  • detektory obiektów: RetinaFace (Deng i in., 2019) dla twarzy; rodzina YOLO i ich warianty dla tablic rejestracyjnych - detektory zwracają ramki i score konfidencji (AP/mAP jako standardowe metryki; WIDER FACE benchmark dla detekcji twarzy),
  • segmentację/landmarki: precyzyjne maski twarzy poprawiają pokrycie przy częściowych zasłonięciach,
  • śledzenie wideo: algorytmy typu SORT/DeepSORT stabilizują maski między klatkami, redukując „mruganie”,
  • przetwarzanie obrazu: filtry Gaussa, pikselizacja, zamiana regionu na neutralny kolor - wybór determinuje podatność na rekonstrukcję i czytelność kontekstu,
  • MLOps on-premise: kontrola wersji modeli, walidacje zmian, replikowalne buildy i izolacja środowisk (zgodnie z ISO/IEC 27001:2022 - kontrola zmian i bezpieczeństwo środowisk).

Kluczowe parametry i metryki (anonimizacja wizualna)

Skuteczność i bezpieczeństwo operacyjne należy mierzyć i dokumentować. Poniższa tabela syntetyzuje typowe metryki stosowane w projektach AI do anonimizacji obrazów i wideo. Wartości progowe są zależne od kontekstu ryzyka i nie mają uniwersalnych wartości - powinny wynikać z oceny ryzyka (ISO/IEC 23894:2023; NIST AI RMF 1.0, 2023).

Metryka

Opis

Uwagi do stosowania

Źródło/standard

 

Precision/Recall (detekcja)

Odsetek poprawnych detekcji i kompletność wykryć

Liczone per-klasa: twarz, tablica; IoU i próg konfidencji muszą być jawne

WIDER FACE, COCO metrics

mAP@IoU

Średnia precyzja przy ustalonym progu nakładania (IoU)

Raportować IoU (np. 0.5) i krzywe PR

WIDER FACE benchmark; COCO evaluation

False Negative Rate

Odsetek niewykrytych obiektów

Krytyczny dla ryzyka ujawnienia danych

NIST AI RMF 1.0 (2023)

Latency

Czas przetwarzania na klatkę/obraz

Podawać konfigurację sprzętową i batch size

ISO/IEC 25010 (charakterystyka: wydajność)

Stabilność maski

Odsetek klatek bez „mrugania” maski

Wymaga testów sekwencyjnych z trackingiem

Praktyka inżynierska; NIST SP 800-53 rev.5 (kontrole dot. testowania i oceny)

Odporność na rekonstrukcję

Weryfikacja, czy transformacja utrudnia odtworzenie cech identyfikacyjnych

Testy ataków rekonstrukcyjnych i oszacowanie ryzyka

ISO/IEC 20889:2018 (terminologia i techniki prywatności)

Wyzwania i ograniczenia (ryzyko i zgodność)

AI w anonimizacji obrazu obarczona jest ryzykiem technicznym i prawnym. Zmienne warunki nagrań, kompresja, zasłonięcia i ujęcia z dystansu zwiększają ryzyko niewykrycia części twarzy lub tablic. Modele mogą tracić uogólnienie poza domeną treningową, co wymaga ciągłej walidacji i ponownego uczenia. Z perspektywy zgodności, EDPB wskazuje, że obraz osoby może stanowić dane osobowe, a przetwarzanie materiału wizyjnego wymaga zgodności z zasadami RODO oraz oceny konieczności i proporcjonalności (EDPB, Wytyczne 3/2019 - wersja finalna 29.01.2020). W Polsce orzecznictwo i praktyka dotyczące tablic rejestracyjnych jako danych osobowych mogą być niejednolite, podczas gdy w wielu państwach Europy Zachodniej organy nadzorcze częściej oczekują ich maskowania w publikacjach i udostępnieniach. Różnice te należy uwzględniać w analizie ryzyka i politykach publikacji.

Przykłady zastosowań w praktyce (anonimizacja twarzy i tablic)

AI i przetwarzanie obrazu stosuje się w powtarzalnych procesach anonimizacji, gdzie wysoka wydajność i spójność są krytyczne. Poniżej typowe scenariusze wdrożeń on-premise bez przetwarzania w czasie rzeczywistym ani przetwarzania strumieni:

  • archiwa monitoringu - hurtowe zamazywanie twarzy i tablic rejestracyjnych przed udostępnieniem materiału podmiotom trzecim (EDPB 3/2019),
  • badania i audyty - przygotowanie zbiorów wideo/zdjęć do publikacji w raportach zgodnie z zasadą minimalizacji,
  • media i komunikacja - publikacja materiału z wydarzeń publicznych przy zachowaniu wyjątków od ochrony wizerunku oraz maskowaniu tablic zgodnie z praktyką regulatorów w UE,
  • obsługa wniosków dostępowych - selektywne zamazywanie osób postronnych w materiałach przekazywanych wnioskodawcy.

W tym kontekście Gallio PRO automatycznie zamazuje twarze i tablice rejestracyjne, a pozostałe elementy są obsługiwane manualnie w edytorze. Oprogramowanie działa on-premise i nie wykonuje anonimizacji w czasie rzeczywistym ani anonimizacji strumienia wideo. System nie gromadzi logów zawierających detekcje twarzy lub tablic rejestracyjnych ani danych osobowych.

Odniesienia normatywne i wytyczne

Prawidłowe użycie AI w bezpieczeństwie danych dla obrazu i wideo powinno opierać się na standardach i dokumentach źródłowych. Poniższa lista wskazuje podstawowe punkty odniesienia, które należy uwzględnić w projektowaniu, ocenie ryzyka i dokumentacji:

  • RODO - Rozporządzenie (UE) 2016/679: art. 5 (zasady), art. 25 (privacy by design), motyw 26 (anonimizacja - „informacja nie dotycząca zidentyfikowanej lub możliwej do zidentyfikowania osoby” - cytat),
  • EDPB, Wytyczne 3/2019 dotyczące przetwarzania danych osobowych przez urządzenia wizyjne (wersja finalna 29.01.2020),
  • ISO/IEC 27001:2022 - system zarządzania bezpieczeństwem informacji, z kontrolami dot. rozwoju i utrzymania systemów,
  • ISO/IEC 23894:2023 - zarządzanie ryzykiem AI, w tym identyfikacja ryzyk technicznych i etycznych,
  • ISO/IEC 20889:2018 - techniki prywatności i ograniczania identyfikowalności,
  • ISO/IEC 22989:2022 i ISO/IEC 23053:2022 - terminologia i cykl życia systemów AI,
  • NIST AI Risk Management Framework 1.0 (2023) - identyfikacja, ocena i monitorowanie ryzyk modeli,
  • NIST SP 800-53 rev. 5 (2020) - kontrolki bezpieczeństwa dla systemów przetwarzania, w tym testowanie i walidacje.