Inteligencia artificial en la seguridad de los datos: definición
La inteligencia artificial en la seguridad de los datos consiste en la aplicación de métodos de aprendizaje automático (machine learning) y aprendizaje profundo (deep learning) para identificar, clasificar, procesar y proteger la información, con el fin de reducir el riesgo de vulneraciones de la confidencialidad, integridad y disponibilidad. En el contexto de la anonimización de imágenes y vídeo, implica la detección automática de elementos que permiten identificar a personas -en particular rostros y matrículas- y su posterior distorsión (por ejemplo, desenfoque o pixelado), conforme al principio de minimización de datos y al enfoque de protección de datos desde el diseño (art. 5 y art. 25 del RGPD - Reglamento (UE) 2016/679).
El marco para un uso seguro de la IA se complementa con normas ISO/IEC relativas a la gestión de riesgos en sistemas de IA (ISO/IEC 23894:2023) y a los sistemas de gestión de la seguridad de la información (ISO/IEC 27001:2022).
El papel de la IA en la anonimización de imágenes y vídeo
En la anonimización de imágenes y vídeos, la IA actúa como capa de detección y decisión. Los modelos de deep learning, entrenados con conjuntos de datos de rostros y matrículas, reconocen estos objetos en distintas condiciones, tras lo cual los algoritmos de transformación aplican desenfoque o pixelación. Para ello es imprescindible contar con un modelo previamente entrenado con datos representativos; de lo contrario, la detección será incompleta, aumentando directamente el riesgo de divulgación de datos personales.
En la práctica:
- el detector localiza rostros y matrículas mediante redes neuronales convolucionales o modelos de visión basados en transformers,
- los mecanismos de seguimiento de objetos estabilizan las máscaras en secuencias de vídeo,
- los filtros de procesamiento de imagen introducen distorsiones a nivel de píxel.
En herramientas on-premise como Gallio PRO, la IA automatiza el difuminado de rostros y matrículas. Otros elementos (por ejemplo, logotipos, tatuajes, identificaciones personales o documentos) pueden anonimizarse manualmente en el editor. Este enfoque permite minimizar el alcance del tratamiento y simplificar la evaluación de riesgos conforme al principio de privacy by design (art. 25 del RGPD) y a las directrices del EDPB sobre dispositivos de videovigilancia (Directrices 3/2019, versión final 2020).
Tecnologías y arquitecturas (visión por computadora)
El desarrollo de soluciones de IA para la anonimización se basa en paradigmas consolidados de visión por computadora. La elección tecnológica influye en la sensibilidad y la velocidad del sistema, y de forma indirecta en el riesgo residual de divulgación de datos. Entre las tecnologías más utilizadas se encuentran:
- Detectores de objetos: RetinaFace (Deng et al., 2019) para rostros; la familia YOLO y sus variantes para matrículas. Los detectores devuelven bounding boxes y puntuaciones de confianza (AP/mAP como métricas estándar; benchmark WIDER FACE para detección facial).
- Segmentación y landmarks: máscaras faciales precisas que mejoran la cobertura en casos de oclusión parcial.
- Seguimiento en vídeo: algoritmos como SORT/DeepSORT que estabilizan las máscaras entre fotogramas y reducen el efecto de “parpadeo”.
- Procesamiento de imagen: filtros gaussianos, pixelado o sustitución de la región por un color neutro; la técnica elegida determina la resistencia a la reconstrucción y la legibilidad del contexto.
- MLOps on-premise: control de versiones de modelos, validación de cambios, builds reproducibles y aislamiento de entornos (conforme a ISO/IEC 27001:2022 - control de cambios y seguridad de entornos).
Parámetros clave y métricas (anonimización visual)
La eficacia y la seguridad operativa deben medirse y documentarse. La siguiente tabla resume métricas habituales en proyectos de IA para la anonimización de imágenes y vídeo. Los umbrales dependen del contexto de riesgo y no son universales; deben derivarse de una evaluación de riesgos (ISO/IEC 23894:2023; NIST AI RMF 1.0, 2023).
Métrica | Descripción | Consideraciones de uso | Fuente/estándar
|
|---|---|---|---|
Precision/Recall (detección) | Proporción de detecciones correctas y exhaustividad | Calcular por clase: rostro, matrícula; especificar IoU y umbral de confianza | WIDER FACE, métricas COCO |
mAP@IoU | Precisión media con un umbral IoU determinado | Informar IoU (p. ej., 0,5) y curvas PR | WIDER FACE; evaluación COCO |
False Negative Rate | Porcentaje de objetos no detectados | Crítico para el riesgo de divulgación de datos | NIST AI RMF 1.0 (2023) |
Latencia | Tiempo de procesamiento por fotograma/imagen | Indicar configuración de hardware y batch size | ISO/IEC 25010 (característica: rendimiento) |
Estabilidad de la máscara | Porcentaje de fotogramas sin “parpadeo” | Requiere pruebas secuenciales con tracking | Buenas prácticas de ingeniería; NIST SP 800-53 rev.5 |
Resistencia a la reconstrucción | Verificación de que la transformación impide recuperar rasgos identificativos | Pruebas de ataques de reconstrucción y estimación del riesgo | ISO/IEC 20889:2018 |
Desafíos y limitaciones (riesgo y cumplimiento)
La IA aplicada a la anonimización de imágenes conlleva riesgos técnicos y jurídicos. Las condiciones variables de grabación, la compresión, las oclusiones y las tomas a distancia aumentan el riesgo de no detectar parcialmente rostros o matrículas. Los modelos pueden perder capacidad de generalización fuera del dominio de entrenamiento, lo que exige validación continua y reentrenamiento.
Desde la perspectiva del cumplimiento normativo, el EDPB señala que la imagen de una persona puede constituir un dato personal, y que el tratamiento de material audiovisual debe ajustarse a los principios del RGPD, así como a una evaluación de necesidad y proporcionalidad (EDPB, Directrices 3/2019 - versión final 29.01.2020). En España y otros países europeos, la consideración de las matrículas como datos personales puede variar en la práctica, aunque muchas autoridades de control recomiendan su enmascaramiento en publicaciones. Estas diferencias deben contemplarse en el análisis de riesgos y en las políticas de publicación.
Ejemplos de aplicación práctica (anonimización de rostros y matrículas)
La anonimización automática de rostros y matrículas mediante IA se emplea en procesos repetitivos donde la eficiencia y la coherencia son esenciales. Escenarios habituales en implementaciones on-premise -sin procesamiento en tiempo real ni tratamiento de streaming- incluyen:
- Archivos de videovigilancia: difuminado masivo de rostros y matrículas antes de compartir el material con terceros (EDPB 3/2019).
- Investigaciones y auditorías: preparación de conjuntos de vídeo/fotografías para su publicación en informes conforme al principio de minimización.
- Medios y comunicación: publicación de imágenes de eventos públicos respetando las excepciones al derecho a la propia imagen y enmascarando matrículas según la práctica regulatoria en la UE.
- Gestión de solicitudes de acceso: anonimización selectiva de terceros en materiales facilitados al solicitante.
En este contexto, Gallio PRO desenfoca automáticamente rostros y matrículas, mientras que otros elementos se gestionan manualmente en el editor. El software funciona on-premise y no realiza anonimización en tiempo real ni procesamiento de vídeo en streaming. El sistema no almacena registros que contengan detecciones de rostros o matrículas ni otros datos personales.
Referencias normativas y directrices
El uso adecuado de la inteligencia artificial en la seguridad de la información para imágenes y vídeo debe basarse en estándares y documentos de referencia. Entre los principales marcos se incluyen:
- RGPD - Reglamento (UE) 2016/679: art. 5 (principios), art. 25 (privacy by design), considerando 26 (anonimización).
- EDPB, Directrices 3/2019 sobre el tratamiento de datos personales mediante dispositivos de vídeo (versión final 29.01.2020).
- ISO/IEC 27001:2022 - sistemas de gestión de la seguridad de la información.
- ISO/IEC 23894:2023 - gestión de riesgos en IA.
- ISO/IEC 20889:2018 - técnicas de privacidad y reducción de identificabilidad.
- ISO/IEC 22989:2022 e ISO/IEC 23053:2022 - terminología y ciclo de vida de sistemas de IA.
- NIST AI Risk Management Framework 1.0 (2023) - identificación, evaluación y seguimiento de riesgos de modelos.
- NIST SP 800-53 rev. 5 (2020) - controles de seguridad para sistemas de procesamiento.