¿Qué es la privacidad diferencial?

Definición

La Privacidad Diferencial (DP, por sus siglas en inglés) es un marco matemático de privacidad que garantiza que la salida de una consulta estadística no revele si algún individuo específico está presente en el conjunto de datos de entrada. La DP logra esto añadiendo ruido aleatorio calibrado a los resultados de las consultas, de modo que la inclusión o eliminación de un registro tenga un impacto insignificante en la salida.

Definición formal (cita normativa): Un mecanismo aleatorizado M proporciona ε-privacidad diferencial si para todos los conjuntos de datos que difieren en un único registro y todos los subconjuntos medibles S de salidas:

\[ \Pr[M(D_1) \in S] \le e^{\varepsilon} \cdot \Pr[M(D_2) \in S]. \]

La forma extendida (ε, δ)-DP permite una pequeña probabilidad δ de exceder este límite.

Parámetros y mecanismos

Parámetro / Mecanismo

Descripción

ε (épsilon)

Cuantifica la pérdida de privacidad; menor ε significa privacidad más robusta pero mayor distorsión.

δ (delta)

Parámetro de holgura para DP aproximada; permite desviaciones de baja probabilidad.

Sensibilidad (Δf)

Influencia máxima de un registro sobre el resultado de una consulta.

Mecanismos de ruido

Laplace, Gaussiano - métodos fundamentales de generación de ruido.

Composición

Define cómo se acumula la pérdida de privacidad a través de múltiples consultas.

Escalado de ruido

En el mecanismo de Laplace, el ruido se muestrea de:

Laplace(0,Δfε)Laplace(0,εΔf​)

donde la sensibilidad Δf determina la escala de la distribución.

Ventajas

  • Proporciona garantías de privacidad auditables y matemáticamente definidas.
  • Resistente a adversarios con conocimiento auxiliar previo.
  • Permite la publicación segura de estadísticas agregadas.
  • Se integra con ML, aprendizaje federado y analítica a gran escala.

Limitaciones

  • La precisión disminuye con privacidad más robusta (menor ε).
  • Las consultas repetidas acumulan pérdida de privacidad (presupuesto de privacidad).
  • DP protege las salidas de consultas, no la infraestructura (registros, metadatos).
  • Menos adecuada para aplicaciones que requieren valores precisos o deterministas.

Aplicaciones en anonimización de imagen y vídeo

La DP no se utiliza para desenfocar rostros u ofuscar píxeles directamente. En cambio, su valor radica en proteger metadatos y salidas agregadas derivadas de analítica visual:

  • Estadísticas de CCTV - conteos de eventos u objetos detectados con garantías de privacidad.
  • Analítica de vídeo - métricas de comportamiento agregadas sin revelar trazas identificables.
  • Conjuntos de datos de investigación - compartición de etiquetas anonimizadas, conteos o metadatos extraídos de imágenes.
  • Sistemas ML federados - entrenamiento de modelos sobre datos visuales con aplicación de ruido de privacidad diferencial.

Relevancia para Delegados de Protección de Datos

La Privacidad Diferencial complementa la anonimización visual al proteger conocimientos agregados derivados de datos de imagen y vídeo. Garantiza que los informes estadísticos o analítica no reintroduzcan información identificable incluso cuando los conjuntos de datos subyacentes se originen a partir de imágenes sensibles.

Variantes y estándares

  • ε-DP - definición canónica.
  • (ε, δ)-DP - privacidad diferencial aproximada.
  • Privacidad Diferencial Local (LDP).
  • DP Distribuida / Federada.