Evaluación del Riesgo de Reidentificación (Re-identification Risk Assessment)

¿Qué es la Evaluación del Riesgo de Reidentificación?

La Evaluación del Riesgo de Reidentificación (Re-identification Risk Assessment) es un proceso estructurado para estimar la probabilidad de que una persona pueda volver a ser identificada tras aplicar técnicas de anonimización en imágenes y grabaciones de vídeo. Desde el punto de vista jurídico, el marco de referencia es el RGPD, cuyo considerando 26 establece que la anonimización debe impedir la identificación de una persona de manera razonablemente probable, teniendo en cuenta todos los medios que puedan ser utilizados razonablemente por el responsable del tratamiento u otra persona (UE 2016/679).

En el plano técnico, los marcos de evaluación del riesgo están definidos, entre otros, por las normas ISO/IEC 20889:2018 e ISO/IEC 27559:2022, que describen las clases de técnicas de desidentificación y los procesos de evaluación del riesgo en el contexto de los datos, incluidos los datos visuales.

En el ámbito de la anonimización de fotos y vídeos, la Evaluación del Riesgo de Reidentificación consiste en comprobar de forma empírica y contextual hasta qué punto, tras aplicar el difuminado de rostros y el difuminado de matrículas, se dificulta la reidentificación mediante métodos modernos de reconocimiento facial y OCR de matrículas. Esto incluye pruebas con modelos de aprendizaje profundo -necesarios para construir sistemas de desenfoque (detección de rostros y matrículas)- así como pruebas de ataque utilizando modelos de reconocimiento similares o más avanzados.

Rol en la anonimización de imágenes y vídeo

La evaluación del riesgo define los parámetros de desenfoque antes de la implementación y posteriormente verifica la eficacia de la anonimización sobre muestras representativas del material. En la práctica, esto implica determinar la intensidad del filtro, los márgenes de las máscaras y la forma de procesar secuencias de fotogramas, de modo que el riesgo de reconocimiento facial o lectura de matrículas sea bajo en escenarios de ataque realistas.

En muchos países de Europa Occidental, el difuminado de matrículas es obligatorio en determinados contextos (por ejemplo, en publicaciones tipo Street View). En otros casos, no existe una obligación general y absoluta de difuminar matrículas en todas las situaciones; sin embargo, las directrices de las autoridades de protección de datos (como el antiguo Grupo de Trabajo del Artículo 29/EDPB) subrayan la necesidad de minimizar el riesgo de identificación en función del contexto.

En el entorno de Gallio PRO, la evaluación del riesgo se centra en rostros y matrículas. Gallio PRO funciona on-premise, no realiza anonimización en tiempo real y automatiza exclusivamente el difuminado de rostros y matrículas. Otros elementos que puedan permitir la identificación -como logotipos o tatuajes- pueden enmascararse manualmente en el editor integrado, lo que también debe tenerse en cuenta en la evaluación del riesgo.

Tecnologías y procedimiento de evaluación del riesgo de reidentificación

La evaluación combina herramientas de detección, anonimización y ataque. En la práctica se utilizan redes neuronales profundas para detectar rostros y matrículas, algoritmos de desenfoque y sistemas de reconocimiento independientes para medir el riesgo tras la anonimización.

  • Detección y enmascaramiento: detectores de rostros (por ejemplo, basados en redes convolucionales como RetinaFace) y de matrículas, seguidos de desenfoque gaussiano o pixelado con parámetros dependientes del tamaño del objeto.
  • Modelo atacante: reconocimiento facial basado en embeddings (por ejemplo, ArcFace) y OCR para matrículas. Estos modelos reflejan medios razonablemente accesibles para un posible atacante.
  • Procedimiento: primero se estima la eficacia de identificación en material no anonimizado (nivel de referencia); posteriormente se repiten las pruebas tras la anonimización y se calcula la reducción de la probabilidad de identificación.
  • Evaluación contextual: análisis de factores adicionales como prendas únicas, accesorios distintivos, metadatos EXIF y audio. Si es necesario, se aplica enmascaramiento manual de elementos distintos del rostro y la matrícula.

Parámetros y métricas clave

Las métricas deben ser medibles, reproducibles y reportadas con su incertidumbre. Se recomienda utilizar intervalos de confianza del 95% para medidas binomiales.

Métrica

Definición

Consideraciones de medición

 

p_reid

Probabilidad empírica de reidentificación tras la anonimización = número de identificaciones correctas / número de intentos

Reportar con IC del 95% para distribución binomial

Recall@k

Porcentaje de casos en los que la identidad correcta aparece entre los k primeros resultados

Pruebas sobre galería de referencia; comparar antes y después de la anonimización

FNR_det

Tasa de rostros/matrículas no detectados = número de fallos de detección / número de objetos GT

Umbral IoU, por ejemplo 0,5 respecto a anotaciones GT

Cobertura de la máscara

Proporción de la superficie del rostro/matrícula cubierta por la máscara

IoU de la máscara respecto a GT; control de márgenes

Intensidad de desenfoque s

Sigma gaussiana o tamaño del bloque de pixelado normalizado por la distancia interpupilar o la altura de la matrícula

Reportar como fracción del tamaño del objeto

En la literatura -especialmente en el ámbito de los datos sanitarios- se mencionan umbrales de riesgo de reidentificación aceptable en torno a 0,09 según determinadas opiniones expertas (El Emam et al., 2013). El RGPD no define un umbral numérico concreto. En el contexto de imágenes y vídeo, se recomienda establecer criterios de aceptación basados en pruebas con un modelo atacante realista y material representativo del caso de uso.

Retos y limitaciones

Incluso tras un difuminado eficaz de rostros o matrículas, la reidentificación puede ser posible mediante información contextual. Al evaluar el riesgo deben considerarse factores técnicos y organizativos.

  • Información adicional: vestimenta, complexión, ubicación, hora, accesorios únicos. En estos casos puede aplicarse enmascaramiento manual en Gallio PRO.
  • Errores de detección: oclusiones parciales, movimiento y desenfoque por movimiento aumentan el FNR_det. Es necesario un control de calidad a nivel de secuencia de fotogramas.
  • Ataques basados en reconstrucción: técnicas de superresolución y deblurring pueden mejorar la calidad de la imagen; por ello, la intensidad del desenfoque debe seleccionarse de forma conservadora respecto al tamaño del objeto.
  • Metadatos: los datos EXIF y miniaturas incrustadas pueden revelar información sensible. Deben eliminarse en el proceso de publicación.
  • Divergencias jurídicas: la ausencia de un umbral numérico único en la UE exige documentar los supuestos y modelos de amenaza en cada proyecto.

Ejemplos de aplicación

La Evaluación del Riesgo de Reidentificación se aplica en escenarios prácticos de tratamiento de material visual por responsables y encargados del tratamiento.

  • Publicación de materiales formativos y promocionales con previo difuminado de rostros y matrículas.
  • Cesión de grabaciones de videovigilancia a entidades autorizadas, minimizando el riesgo de revelar la identidad de terceros.
  • Anonimización de materiales de investigación y conjuntos de datos en proyectos de IA, con informe de p_reid y FNR_det.
  • Cumplimiento de obligaciones legales en Estados miembros de la UE donde el difuminado de matrículas puede ser exigido según el contexto, documentando la metodología de evaluación.

Referencias normativas y fuentes

  • RGPD, Reglamento (UE) 2016/679, considerando 26 y art. 4. Texto disponible en EUR-Lex.
  • ISO/IEC 20889:2018 Privacy enhancing data de-identification terminology and classification of techniques. ISO, 2018.
  • ISO/IEC 27559:2022 Privacy enhancing data de-identification framework. ISO, 2022.
  • Article 29 Working Party, Opinion 05/2014 on Anonymisation Techniques, 2014.
  • CNIL, Guide to anonymisation, 2019. https://www.cnil.fr
  • NISTIR 8053, De-Identification of Personal Information, NIST, 2015.
  • Deng J. et al., ArcFace: Additive Angular Margin Loss for Deep Face Recognition, CVPR 2019. Resultado 99,83% en LFW.
  • El Emam K., Arbuckle L., Anonymizing Health Data, Morgan Kaufmann, 2013. Discusión sobre umbrales de riesgo en torno a 0,09 en dictámenes periciales.