Floutage des visages pour la protection des données en apprentissage profond

Mateusz Zimoch
Publié: 04/12/2025
Mis à jour: 10/03/2026

Le floutage des visages est une technique d’anonymisation des données visuelles qui consiste à détecter les visages humains dans des photos ou des vidéos et à les masquer afin que les personnes ne puissent pas être identifiées. Dans les workflows d’apprentissage profond, le floutage des visages et le floutage des plaques d’immatriculation réduisent le risque que des visuels publiés révèlent des données personnelles. Toutefois, le floutage ne rend pas automatiquement les données « anonymes » au sens du droit de la protection des données. Les résultats ne sortent du champ d’application de la législation que si les personnes ne sont plus identifiables par des moyens raisonnablement susceptibles d’être utilisés, compte tenu de l’ensemble des moyens raisonnablement susceptibles d’être utilisés par le responsable du traitement ou par toute autre personne [1][6].

photo en noir et blanc d'une femme aux longs cheveux bruns, le visage flouté

Pourquoi le floutage des visages est essentiel pour la conformité

Les images et les vidéos constituent des données personnelles dès lors qu’une personne peut être identifiée directement ou indirectement [1]. Les autorités distinguent l’anonymisation de la pseudonymisation. Les visuels anonymisés sont traités de manière à ce que les personnes ne soient identifiables par aucun moyen raisonnablement susceptible d’être utilisé. Les visuels pseudonymisés peuvent encore être rattachés à une personne à l’aide d’informations supplémentaires et restent donc soumis au droit de la protection des données [1][6].

Le floutage des visages peut contribuer à l’anonymisation en réduisant les identifiants faciaux, mais des mises en œuvre efficaces prennent également en compte d’autres identifiants, tels que des tatouages uniques, des vêtements distinctifs, la voix (dans les vidéos), le contexte géographique ou les plaques d’immatriculation. Si un identifiant subsiste et permet l’identification, le résultat peut toujours constituer une donnée personnelle [1][6][8].

visage flou dans l'ovale d'un homme portant un polo devant un mur, photo en noir et blanc

Publication de visuels - RGPD et UK GDPR en bref

Sujet

RGPD UE

UK GDPR

 

Les images sont-elles des données personnelles

Oui, si une personne est identifiable [1]

Oui, si une personne est identifiable [2][3]

Résultats anonymisés

Hors RGPD uniquement s’ils sont anonymisés de manière irréversible (c.-à-d. que les personnes ne sont pas identifiables par des moyens raisonnablement susceptibles d’être utilisés) [1][6]

Hors UK GDPR uniquement s’ils sont anonymisés de manière irréversible (c.-à-d. que les personnes ne sont pas identifiables par des moyens raisonnablement susceptibles d’être utilisés) [2][6]

Base légale pour publier des visuels identifiables

Dépend du contexte ; le plus souvent le consentement ou l’intérêt légitime, avec un test de mise en balance documenté lorsque l’intérêt légitime est invoqué [1][4][7]

Dépend du contexte ; le plus souvent le consentement ou l’intérêt légitime, avec un test de mise en balance documenté lorsque l’intérêt légitime est invoqué [2][4]

Images d’enfants

Risque plus élevé ; des justifications et des garanties renforcées sont souvent attendues (exigences spécifiques de transparence et d’équité) [1]

Risque plus élevé ; l’ICO attend une attention et des garanties particulières pour les données des enfants [4]

Orientations sur la vidéosurveillance

Lignes directrices de l’EDPB sur les dispositifs vidéo [8]

Guides de l’ICO sur la vidéosurveillance et la CCTV [5]

Transferts transfrontaliers

Application des règles de transfert si les données sont personnelles ; les données véritablement anonymisées sont hors RGPD [1]

Application des règles de transfert britanniques si les données sont personnelles ; les données véritablement anonymisées sont hors UK GDPR [2]

photo en noir et blanc avec anonymisation du visage d'une femme aux cheveux foncés, photo d'identité

Trois cas où le consentement ou l’anonymisation peuvent ne pas être requis

  • La personne est largement connue (personnalité publique) et l’image a été prise dans le cadre de son rôle public.
  • La personne apparaît uniquement comme élément accessoire d’une scène plus large (par exemple, une foule lors d’un événement public) et n’est pas le sujet principal de l’image.
  • La personne a été rémunérée pour poser et un contrat ou une autorisation de droit à l’image couvre les usages prévus.

Remarque : il ne s’agit pas d’« exemptions automatiques » au titre du RGPD/UK GDPR. La nécessité du consentement dépend de la base légale, des lois locales applicables (y compris le droit à l’image), des attentes raisonnables des personnes concernées et des obligations d’équité et de transparence [1][4].

photo après désaturation des couleurs, représentant une femme sur un fond noir avec le visage flou

Risques souvent sous-estimés dans le floutage des visages et des plaques

Risque de ré-identification - Même avec des visages floutés, les personnes peuvent être identifiées à partir de vêtements uniques, de la démarche, d’accessoires, de tatouages corporels, de la voix ou d’éléments d’arrière-plan tels que des vitrines, des numéros d’appartement ou des lieux distinctifs. Le floutage des plaques d’immatriculation accompagne souvent le floutage des visages dans les scènes de rue.

Exposition des métadonnées - Les métadonnées EXIF et XMP peuvent contenir des horodatages, des coordonnées GPS, des identifiants d’appareil ou des notes d’auteur. La suppression des métadonnées avant publication est une mesure courante de réduction des risques.

Erreurs de détection - Les faux négatifs laissent certains visages ou plaques non floutés. Les faux positifs peuvent flouter des logos ou des objets et nuire à l’utilisabilité. Les performances dépendent de l’éclairage, des occultations, des angles de caméra, des couvre-chefs, des masques et du flou de mouvement. Les scènes nocturnes et les caméras grand angle ou fisheye sont particulièrement difficiles [8].

Artefacts de compression et d’édition - Le ré-encodage et le redimensionnement peuvent affaiblir certaines méthodes de masquage. Les techniques robustes utilisent une pixellisation ou un flou suffisamment forts (ou un masquage complet avec des aplats) pour les contenus à haut risque. L’objectif est une irréversibilité pratique au regard des « moyens raisonnablement susceptibles d’être utilisés » [1][6].

Risque lié aux transferts vers le cloud - Le téléversement de séquences brutes vers des services externes crée des flux de données supplémentaires et peut introduire des risques de transfert ou de sous-traitance. Les logiciels on-premise peuvent limiter les transferts externes et renforcer les contrôles de sécurité internes.

photo en noir et blanc d'une adolescente aux cheveux foncés avec le visage anonymisé en ovale

Techniques d’apprentissage profond et choix de déploiement

Les pipelines de pointe combinent des détecteurs de visages et de plaques avec des mécanismes de suivi afin de maintenir le masquage image par image. Pour les scènes à risque élevé, des détecteurs de personnes ou des techniques de segmentation peuvent masquer les corps entiers. La précision et le débit dépendent du contexte et doivent être validés sur des jeux de données représentatifs.

Les logiciels on-premise permettent un traitement au sein d’une infrastructure contrôlée, prennent en charge un fonctionnement hors ligne et peuvent simplifier les politiques de conservation. Pour découvrir des outils on-premise de niveau entreprise, découvrez Gallio PRO.

Photo en noir et blanc d'un mannequin au visage flouté

Workflow pour publier des photos et des vidéos avec un risque minimisé

  1. Définir l’objectif et la base légale - En cas de publication de visuels identifiables, les organisations envisagent souvent le consentement ou l’intérêt légitime avec une mise en balance documentée (lorsque l’intérêt légitime est utilisé) [1][4].
  2. Importer les contenus de manière sécurisée - Maintenir un référentiel interne avec un contrôle d’accès par rôles. Éviter le partage externe de fichiers bruts.
  3. Lancer la détection automatisée - Appliquer le floutage des visages et le floutage des plaques d’immatriculation. Dans les contextes à haut risque, envisager le floutage des corps entiers, des uniformes ou d’autres identifiants.
  4. Revue humaine dans la boucle - Échantillonner des images dans chaque scène. Vérifier les segments très fréquentés ou en faible luminosité où les faux négatifs sont probables.
  5. Supprimer les métadonnées - Retirer les données EXIF et XMP avant l’export. Documenter la chaîne de transformation.
  6. Assurance qualité - Valider l’irréversibilité pratique en testant différents niveaux de zoom et de compression, et en recherchant des identifiants résiduels dans leur contexte [1][6].
  7. Publier et journaliser - Enregistrer les paramètres de traitement, les validations des relecteurs et les dates de conservation.
  8. Conservation et suppression - Conserver les fichiers sources uniquement le temps nécessaire à l’objectif déclaré, puis les supprimer de manière sécurisée [1].

Pour évaluer ce workflow sur des données d’entreprise, téléchargez une démo.

photographie portrait en noir et blanc montrant un homme avec le visage flouté dans le cadre du processus d'anonymisation

Mesurer l’efficacité sans surpromettre

Définissez des indicateurs par cas d’usage : taux de rappel de détection des visages et des plaques, risque résiduel d’identification dans des échantillons audités, et temps de traitement par minute de vidéo. Présentez les résultats par type de scénario - intérieur, extérieur, nuit - plutôt que sous la forme d’un chiffre global unique. Toute affirmation de performance ou de coût dépend du contexte, sauf si elle est étayée par des benchmarks formels et publics. Les organisations peuvent mener des tentatives internes de « ré-identification » (parfois assimilées à du red teaming) afin d’identifier les identifiants restants dans les visuels floutés et de documenter les conclusions comme des entrées correctives pour le pipeline [6][8].

Les équipes recherchant une solution on-premise renforcée peuvent nous contacter pour discuter du déploiement et examiner les journaux, la gestion des rôles (RBAC) et les modes hors ligne.

Un homme noir en pull noir, posant pour une photo de profil droit avec le visage flouté

Liste de contrôle pour l’implémentation

Lors de l’acquisition d’un logiciel on-premise d’anonymisation des données visuelles, les acheteurs exigent généralement : le traitement par lots de grandes bibliothèques, des paramètres configurables de flou et de masquage, la prise en charge du floutage des visages et des plaques d’immatriculation, le suivi vidéo, la suppression des métadonnées, des journaux d’audit et l’accélération matérielle. L’alignement avec les politiques de sécurité internes et la capacité à fonctionner entièrement hors ligne sont des exigences courantes dans le secteur public et les industries réglementées.

Graphique en noir et blanc représentant un point d'interrogation 3D ovale

FAQ - Floutage des visages pour la protection des données en apprentissage profond

Le floutage des visages suffit-il pour anonymiser une vidéo ?

Pas toujours. Si d’autres identifiants subsistent (par exemple des vêtements uniques, des tatouages, la voix, des lieux distinctifs ou des plaques d’immatriculation), les personnes peuvent rester identifiables. Associez le floutage des visages au floutage des plaques lorsque cela est pertinent et envisagez un masquage supplémentaire pour les scènes à haut risque [1][6][8].

Faut-il recueillir le consentement avant de filmer ?

Cela dépend du contexte et de la base légale choisie. De nombreuses organisations s’appuient sur le consentement ou l’intérêt légitime pour des images identifiables, mais d’autres bases légales peuvent s’appliquer selon les circonstances. Si les résultats sont véritablement anonymisés (personnes non identifiables par des moyens raisonnablement susceptibles d’être utilisés), leur publication peut sortir du champ du RGPD/UK GDPR ; toutefois, l’enregistrement et le traitement des images originales restent un traitement de données personnelles et doivent reposer sur une base légale et respecter les exigences de transparence et d’équité [1][4][6].

Le traitement on-premise modifie-t-il les obligations légales ?

Il ne modifie pas la loi, mais peut réduire les divulgations ou transferts à des tiers et simplifier les contrôles de sécurité et de conservation. Les obligations légales continuent de s’appliquer à tout traitement de données personnelles [1][2][4].

Comment gérer les métadonnées dans les photos et vidéos ?

Supprimez les métadonnées EXIF et XMP avant publication lorsque cela est possible, car elles peuvent accroître le risque d’identification (par exemple la localisation GPS et les horodatages). Il s’agit d’une mesure courante de réduction des risques.

Quel niveau de flou est considéré comme irréversible ?

Il n’existe pas de taille de noyau définie par les autorités. Une approche pragmatique consiste à tester la ré-identification en tenant compte des « moyens raisonnablement susceptibles d’être utilisés », y compris les étapes d’amélioration courantes (redimensionnement, ré-encodage, accentuation) et les indices contextuels. Si les personnes ne sont pas identifiables dans leur contexte, le réglage se rapproche de l’anonymisation [1][6].

Les plaques d’immatriculation sont-elles des données personnelles ?

Elles peuvent constituer des données personnelles si une personne est identifiable directement ou indirectement à partir de la plaque (par exemple via l’accès aux données d’immatriculation ou par d’autres moyens raisonnablement susceptibles d’être utilisés). Dans de nombreux contextes réels, le floutage des plaques est une mesure de protection pertinente pour les images de rue [1][5].

Quand le consentement ou l’anonymisation ne sont-ils pas requis ?

Il n’existe pas d’exemptions générales au RGPD/UK GDPR supprimant automatiquement la nécessité d’une base légale. En pratique, les exigences dépendent du contexte : statut de personnalité publique agissant dans un rôle public, caractère accessoire de la personne dans une scène plus large, ou existence d’un contrat ou d’une autorisation de droit à l’image couvrant les usages prévus. Des droits à l’image locaux distincts peuvent également s’appliquer [1][4].

Liste de références

  1. [1] Règlement (UE) 2016/679 (Règlement général sur la protection des données).
  2. [2] UK GDPR - Droit de l’UE conservé et amendements connexes.
  3. [3] Data Protection Act 2018 (Royaume-Uni).
  4. [4] ICO, Guide du UK GDPR - Base légale du traitement.
  5. [5] ICO, Guide sur la vidéosurveillance (y compris la CCTV).
  6. [6] Groupe de travail Article 29, Avis 05/2014 sur les techniques d’anonymisation.
  7. [7] EDPB, Lignes directrices 05/2020 sur le consentement au titre du règlement 2016/679.
  8. [8] EDPB, Lignes directrices 3/2019 sur le traitement des données personnelles par des dispositifs vidéo.