Desenfoque facial para la privacidad de datos en el deep learning

Mateusz Zimoch
Publicado: 4/12/2025
Actualizado: 10/3/2026

El desenfoque facial es una técnica de anonimización de datos visuales que detecta rostros humanos en fotos o vídeos y los oculta para que las personas no puedan ser identificadas. En los flujos de trabajo de deep learning, el desenfoque de rostros y el desenfoque de matrículas reducen el riesgo de que los materiales visuales publicados revelen datos personales. Sin embargo, el desenfoque no convierte automáticamente los datos en “anónimos” según la normativa de protección de datos. Los resultados solo quedan fuera del ámbito de la ley de protección de datos si las personas ya no son identificables por medios que sea razonablemente probable que se utilicen, teniendo en cuenta todos los medios razonablemente previsibles que pueda emplear el responsable del tratamiento o cualquier otra persona [1][6].

Rostro de mujer con cabello oscuro anonimizado y difuminado, foto en blanco y negro

Por qué el desenfoque facial es clave para el cumplimiento normativo

Las imágenes y los vídeos son datos personales si una persona puede ser identificada directa o indirectamente [1]. Las autoridades reguladoras distinguen entre anonimización y seudonimización. Los materiales visuales anonimizados se procesan de modo que las personas no sean identificables por ningún medio razonablemente probable. Los materiales seudonimizados aún pueden vincularse a una persona con información adicional y siguen estando sujetos a la normativa de protección de datos [1][6].

El desenfoque facial puede contribuir a la anonimización al reducir los identificadores faciales, pero las implementaciones eficaces también consideran otros identificadores, como tatuajes únicos, ropa distintiva, la voz (en vídeo), el contexto de la ubicación y las matrículas. Si permanece cualquier identificador que permita la identificación, el resultado puede seguir considerándose dato personal [1][6][8].

rostro borroso en forma de óvalo de un hombre con camiseta polo frente a una pared, foto en blanco y negro

Publicación de material visual: GDPR y UK GDPR de un vistazo

Tema

RGPD UE

RGPD Reino Unido

 

¿Las imágenes son datos personales?

Sí, si una persona es identificable [1]

Sí, si una persona es identificable [2][3]

Resultados anonimizados

Fuera del RGPD solo si están anonimizados de forma irreversible (es decir, las personas no son identificables por medios razonablemente previsibles) [1][6]

Fuera del RGPD del Reino Unido solo si están anonimizados de forma irreversible (es decir, las personas no son identificables por medios razonablemente previsibles) [2][6]

Base legal para publicar material identificable

Depende del contexto; habitualmente consentimiento o interés legítimo, con una prueba de ponderación documentada cuando se utiliza el interés legítimo [1][4][7]

Depende del contexto; habitualmente consentimiento o interés legítimo, con una prueba de ponderación documentada cuando se utiliza el interés legítimo [2][4]

Imágenes de menores

Mayor riesgo; suele exigirse una justificación y salvaguardas más sólidas (consideraciones específicas de transparencia y equidad para menores) [1]

Mayor riesgo; la ICO espera especial cuidado y salvaguardas para los datos de menores [4]

Orientación sobre videovigilancia

Directrices del EDPB sobre dispositivos de vídeo [8]

Guía de la ICO sobre CCTV y videovigilancia [5]

Transferencias transfronterizas

Se aplican las normas de transferencia si los datos son personales; los datos verdaderamente anonimizados quedan fuera del RGPD [1]

Se aplican las normas de transferencia del Reino Unido si los datos son personales; los datos verdaderamente anonimizados quedan fuera del RGPD del Reino Unido [2]

Schwarz-Weiß-Foto einer Frau mit braunen Haaren und einer Halskette, deren Gesicht unscharf ist

Tres casos en los que puede no ser necesario el consentimiento o la anonimización

  • La persona es ampliamente conocida (una figura pública) y la imagen se captó en relación con su función pública.
  • La persona aparece solo como parte de una escena más amplia (por ejemplo, una multitud en un evento público) y no es el foco de la imagen.
  • La persona fue remunerada para posar y un contrato o autorización de modelo cubre los usos previstos.

Nota: estos no son “supuestos de exención automática” en el RGPD/UK GDPR. La necesidad de consentimiento depende de la base legal aplicable y de las leyes locales pertinentes (incluidos los derechos de imagen), de las expectativas razonables y de las obligaciones de equidad y transparencia [1][4].

foto con desaturación de colores, mostrando a una mujer sobre un fondo negro con el rostro desenfocado

Riesgos que las empresas suelen pasar por alto en el desenfoque de rostros y matrículas

Riesgo de reidentificación: incluso con los rostros desenfocados, las personas pueden ser identificadas por ropa única, forma de caminar, accesorios, tatuajes corporales, la voz o por identificadores del entorno como escaparates, números de edificios o ubicaciones distintivas. El desenfoque de matrículas suele acompañar al desenfoque facial en escenas urbanas.

Exposición de metadatos: los metadatos EXIF y XMP pueden contener marcas de tiempo, coordenadas GPS, identificadores del dispositivo o notas del autor. Eliminar los metadatos antes de la publicación es una medida habitual de reducción de riesgos.

Errores de detección: los falsos negativos dejan algunos rostros o matrículas sin desenfocar. Los falsos positivos pueden difuminar logotipos u objetos y afectar a la usabilidad. El rendimiento de la detección depende de la iluminación, las oclusiones, los ángulos de cámara, el uso de gorros o mascarillas y el desenfoque por movimiento. Las escenas nocturnas y las cámaras gran angular u ojo de pez son especialmente complejas [8].

Artefactos de compresión y edición: la recodificación y el redimensionado pueden debilitar algunos métodos de enmascaramiento. Las técnicas robustas utilizan una pixelación o un desenfoque suficientemente intensos (o un enmascaramiento completo con bloques sólidos) para contenidos de alto riesgo. El objetivo es la irreversibilidad práctica en el contexto de los “medios razonablemente previsibles” [1][6].

Riesgo en transferencias a la nube: subir material sin procesar a servicios externos crea flujos de datos adicionales y puede introducir riesgos de transferencia o de proveedores. El software on‑premise puede limitar las transferencias externas y reforzar los controles de seguridad internos.

Fotografía en blanco y negro de una mujer con el pelo medio largo y un top de tirantes, cuyo rostro aparece desenfocado.

Técnicas de deep learning y opciones de despliegue

Los flujos de trabajo más avanzados combinan detectores de rostros y matrículas con sistemas de seguimiento para mantener el enmascaramiento entre fotogramas. En escenas de mayor riesgo, los detectores de personas o la segmentación pueden ocultar cuerpos completos. La precisión y el rendimiento dependen del contexto y deben validarse con conjuntos de datos representativos.

El software on‑premise permite el procesamiento dentro de infraestructuras controladas, admite el funcionamiento sin conexión y puede simplificar las políticas de conservación. Para explorar herramientas on‑premise de nivel empresarial, descubre Gallio PRO.

Fotografía en blanco y negro de una mujer con el pelo medio largo y un top de tirantes, cuyo rostro aparece desenfocado.

Flujo de trabajo para publicar fotos y vídeos con riesgo minimizado

  1. Definir la finalidad y la base legal: si se publican materiales identificables, las organizaciones suelen considerar el consentimiento o el interés legítimo con una ponderación documentada (cuando se utiliza el interés legítimo) [1][4].
  2. Ingesta segura de activos: mantener un repositorio interno con acceso basado en roles. Evitar compartir archivos sin procesar externamente.
  3. Ejecución de detección automatizada: aplicar desenfoque facial y desenfoque de matrículas. En contextos de alto riesgo, considerar el desenfoque de cuerpos completos, uniformes u otros identificadores.
  4. Revisión humana en el circuito: muestrear fotogramas de cada escena. Verificar segmentos concurridos o con poca luz donde es más probable que haya falsos negativos.
  5. Eliminación de metadatos: borrar EXIF y XMP antes de la exportación. Documentar la cadena de transformaciones.
  6. Control de calidad: validar la irreversibilidad práctica probando distintos niveles de zoom y configuraciones de compresión, y comprobando la existencia de identificadores residuales en contexto [1][6].
  7. Publicación y registro: registrar la configuración de procesamiento, las aprobaciones de revisión y las fechas de conservación.
  8. Conservación y eliminación: conservar los archivos fuente solo el tiempo necesario para la finalidad declarada y eliminarlos de forma segura [1].

Para evaluar este flujo de trabajo con datos empresariales, descarga una demo.

Fotografía en blanco y negro de un hombre con camiseta blanca y pelo corto, con el rostro difuminado.

Medición de la eficacia sin promesas excesivas

Defina métricas según el caso de uso: tasa de detección de rostros y matrículas, riesgo residual de identificación en muestras auditadas y tiempo de procesamiento por minuto de vídeo. Informe los resultados por tipo de escenario - interior, exterior, nocturno - en lugar de una única media global. Cualquier afirmación destacada sobre precisión o costes depende del contexto, salvo que esté respaldada por benchmarks formales y públicos. Las organizaciones pueden realizar intentos internos de “reidentificación” (a veces planteados como red‑teaming) para detectar identificadores restantes en los resultados desenfocados y documentar los hallazgos como entradas correctivas del flujo de trabajo [6][8].

Los equipos que buscan una solución robusta on‑premise pueden contactarnos para analizar el despliegue y revisar registros, RBAC y modos sin conexión.

Hombre de piel negra con un suéter negro, posando para una foto de perfil derecho con el rostro desenfocado

Lista de verificación de implementación

Al adquirir software on‑premise para la anonimización de datos visuales, los compradores suelen exigir: procesamiento por lotes para grandes bibliotecas, configuración de la intensidad del desenfoque y de las máscaras, compatibilidad con desenfoque facial y de matrículas, seguimiento de vídeo, eliminación de metadatos, registros de auditoría y aceleración por hardware. La alineación con las políticas internas de seguridad y la capacidad de operar completamente sin conexión son requisitos habituales en el sector público y en industrias reguladas.

Gráfico en blanco y negro que representa un signo de interrogación 3D ovalado

FAQ - Desenfoque facial para la privacidad de datos en el deep learning

¿Es suficiente el desenfoque facial para anonimizar un vídeo?

No siempre. Si permanecen otros identificadores (por ejemplo, ropa única, tatuajes, voz, ubicaciones distintivas o matrículas), las personas pueden seguir siendo identificables. Combine el desenfoque facial con el desenfoque de matrículas cuando sea pertinente y considere un enmascaramiento adicional en escenas de alto riesgo [1][6][8].

¿Debe recopilarse el consentimiento antes de grabar?

Depende del contexto y de la base legal elegida. Muchas organizaciones se apoyan en el consentimiento o en el interés legítimo para material identificable, pero pueden aplicarse otras bases legales según las circunstancias. Si los resultados están verdaderamente anonimizados (las personas no son identificables por medios razonablemente previsibles), la publicación de dichos resultados puede quedar fuera del RGPD/UK GDPR; no obstante, la grabación y el tratamiento del material original siguen siendo un tratamiento de datos personales y deben contar con una base legal y cumplir las obligaciones de transparencia y equidad [1][4][6].

¿El procesamiento on‑premise cambia las obligaciones legales?

No cambia la ley, pero puede reducir las cesiones o transferencias a terceros y simplificar los controles de seguridad y conservación. Las obligaciones legales siguen aplicándose a cualquier tratamiento de datos personales [1][2][4].

¿Cómo gestionar los metadatos en fotos y vídeos?

Eliminar EXIF y XMP antes de la publicación cuando sea posible, ya que los metadatos pueden aumentar el riesgo de identificabilidad (por ejemplo, la ubicación GPS y las marcas de tiempo). Es una medida práctica y habitual de reducción de riesgos.

¿Qué intensidad de desenfoque se considera irreversible?

No existe un tamaño de kernel definido por los reguladores. Un enfoque práctico es probar frente a intentos de reidentificación considerando los “medios razonablemente previsibles”, incluidos pasos comunes de mejora (redimensionado, recodificación, nitidez) y las pistas contextuales. Si las personas no son identificables en contexto, la configuración se aproxima más a la anonimización [1][6].

¿Las matrículas son datos personales?

Pueden ser datos personales si una persona es identificable directa o indirectamente a partir de la matrícula (por ejemplo, mediante el acceso a datos de registro u otros medios razonablemente previsibles). En muchos contextos reales, el desenfoque de matrículas es una salvaguarda sensata en grabaciones a nivel de calle [1][5].

¿Cuándo no se requiere consentimiento o anonimización?

No existen exenciones generales en el RGPD/UK GDPR que eliminen automáticamente la necesidad de una base legal. En la práctica, los requisitos dependen del contexto: si la persona es una figura pública actuando en un rol público, si aparece de forma incidental en una escena más amplia y si un contrato o autorización válida cubre los usos previstos. También pueden aplicarse derechos locales de imagen o retrato [1][4].

Lista de referencias

  1. [1] Reglamento (UE) 2016/679 (Reglamento General de Protección de Datos).
  2. [2] RGPD del Reino Unido - Derecho de la UE retenido y enmiendas relacionadas.
  3. [3] Data Protection Act 2018 (Reino Unido).
  4. [4] ICO, Guía del RGPD del Reino Unido - Base legal para el tratamiento.
  5. [5] ICO, Guía sobre videovigilancia (incluido CCTV).
  6. [6] Grupo de Trabajo del Artículo 29, Dictamen 05/2014 sobre técnicas de anonimización.
  7. [7] EDPB, Directrices 05/2020 sobre el consentimiento en el Reglamento 2016/679.
  8. [8] EDPB, Directrices 3/2019 sobre el tratamiento de datos personales mediante dispositivos de vídeo.