Définition
La Confidentialité Différentielle (DP) est un cadre mathématique de protection de la vie privée qui garantit que le résultat d'une requête statistique ne révèle pas si un individu spécifique est présent dans le dataset d'entrée. La DP y parvient en ajoutant du bruit aléatoire calibré aux résultats de requêtes, de sorte que l'inclusion ou la suppression d'un enregistrement ait un impact négligeable sur le résultat.
Définition formelle (citation normative) : Un mécanisme aléatoire M fournit une ε-confidentialité différentielle si pour tous les datasets différant d'un seul enregistrement et tous les sous-ensembles mesurables S de résultats :
\[ \Pr[M(D_1) \in S] \le e^{\varepsilon} \cdot \Pr[M(D_2) \in S]. \]
La forme étendue (ε, δ)-DP autorise une faible probabilité δ de dépasser cette limite.
Paramètres et mécanismes
Paramètre / Mécanisme | Description |
|---|---|
ε (epsilon) | Quantifie la perte de vie privée ; un ε plus faible signifie une vie privée plus forte mais une distorsion plus grande. |
δ (delta) | Paramètre de tolérance pour la DP approximative ; permet des déviations à faible probabilité. |
Sensibilité (Δf) | Influence maximale d'un enregistrement sur le résultat d'une requête. |
Mécanismes de bruitage | Laplace, Gaussien - méthodes fondamentales de génération de bruit. |
Composition | Définit comment la perte de vie privée s'accumule à travers de multiples requêtes. |
Calibrage du bruit
Dans le mécanisme de Laplace, le bruit est échantillonné à partir de :
Laplace(0,Δfε)Laplace(0,εΔf)
où la sensibilité Δf détermine l'échelle de la distribution.
Avantages
- Fournit des garanties de vie privée auditables et mathématiquement définies.
- Résistant aux adversaires possédant des connaissances contextuelles auxiliaires.
- Permet la publication sécurisée de statistiques agrégées.
- S'intègre avec le ML, l'apprentissage fédéré et l'analytique à grande échelle.
Limitations
- La précision diminue avec une vie privée plus forte (ε plus faible).
- Les requêtes répétées accumulent la perte de vie privée (budget de confidentialité).
- La DP protège les résultats de requêtes, pas l'infrastructure (journaux, métadonnées).
- Moins adaptée aux applications nécessitant des valeurs précises ou déterministes.
Applications dans l'anonymisation d'images et de vidéos
La DP n'est pas utilisée pour flouter des visages ou obscurcir des pixels directement. Sa valeur réside plutôt dans la protection des métadonnées et des résultats agrégés dérivés de l'analytique visuelle :
- Statistiques CCTV – comptages d'événements ou d'objets détectés avec garanties de vie privée.
- Analytique vidéo – métriques comportementales agrégées sans révéler de traces identifiables.
- Datasets de recherche – partage de labels anonymisés, comptages ou métadonnées extraits d'images.
- Systèmes ML fédérés – entraînement de modèles sur données visuelles avec bruit de confidentialité différentielle appliqué.
Pertinence pour les Délégués à la Protection des Données
La Confidentialité Différentielle complète l'anonymisation visuelle en protégeant les insights agrégés dérivés de données d'images et de vidéos. Elle garantit que le reporting statistique ou l'analytique ne réintroduit pas d'informations identifiables même lorsque les datasets sous-jacents proviennent d'imagerie sensible.
Variantes et normes
- ε-DP – définition canonique.
- (ε, δ)-DP – confidentialité différentielle approximative.
- Local Differential Privacy (LDP) – confidentialité différentielle locale.
- Distributed / Federated DP – DP distribuée / fédérée.