Qu’est-ce que le Deep Learning ?

Deep Learning - définition

Le Deep Learning (apprentissage profond) est un sous-domaine du machine learning qui utilise des réseaux de neurones artificiels multicouches pour apprendre des représentations de données et résoudre des tâches perceptives complexes, telles que la détection d’objets, la segmentation et la classification d’images. Cette définition est notamment reprise par la norme ISO/IEC 22989:2022, qui structure les concepts liés à l’intelligence artificielle (source : ISO/IEC 22989:2022).

Dans le contexte de l’anonymisation d’images et de vidéos, le deep learning constitue la base de l’entraînement des modèles de détection de visages et de plaques d’immatriculation. Ces modèles permettent ensuite le floutage automatique de ces zones, tout en garantissant la cohérence du traitement et la conformité aux réglementations relatives à la protection des données, notamment le RGPD.

Rôle du deep learning dans l’anonymisation d’images et de vidéos

Le floutage des visages et des plaques d’immatriculation nécessite des modèles de détection fiables, capables de fonctionner sur des images fixes comme sur des séquences vidéo. Le deep learning fournit de tels modèles grâce à des architectures convolutionnelles et hybrides capables de détecter des objets dans des conditions d’éclairage variées, sous différents angles et à différentes échelles.

Dans Gallio PRO, les modèles de deep learning sont utilisés pour identifier automatiquement les zones contenant des visages ou des plaques d’immatriculation, auxquelles est ensuite appliqué un filtre de flou ou de pixelisation. Le logiciel ne détecte pas automatiquement les logos, tatouages, badges nominatifs ou contenus affichés sur des écrans : ces éléments peuvent être masqués manuellement via l’éditeur intégré. Gallio PRO ne prend pas en charge l’anonymisation en temps réel ni le traitement de flux vidéo en direct. L’automatisation concerne exclusivement les visages et les plaques d’immatriculation.

Technologies de deep learning utilisées pour le floutage des visages et des plaques

La détection des zones à anonymiser repose sur des classes de modèles éprouvées et sur des protocoles d’évaluation standardisés. Les approches les plus couramment utilisées sont présentées ci-dessous, avec leurs références scientifiques et méthodologiques.

  • Détection de visages : détecteurs convolutionnels à passage unique, tels que RetinaFace et SCRFD, combinant extraction de caractéristiques et détection de points clés, ce qui facilite un masquage stable même en cas d’inclinaison de la tête (sources : Deng et al., CVPR 2020 - RetinaFace ; Guo et al., 2021 - SCRFD ; base WIDER FACE - Yang et al., 2016).
  • Détection de plaques d’immatriculation : détecteurs d’objets généralistes adaptés à la classe « license plate » ainsi que solutions spécialisées dans des chaînes ALPR (Automatic License Plate Recognition). Les jeux de données publics UFPR-ALPR et AOLP sont utilisés pour la recherche et la validation (sources : Gonçalves et al., 2018 - UFPR-ALPR ; Hsieh et al., 2011 - AOLP).
  • Suivi vidéo (tracking) : après la détection image par image, des algorithmes d’association tels que DeepSORT ou ByteTrack assurent la continuité du masquage d’un même objet sur toute la durée d’un plan, réduisant ainsi le scintillement des masques (sources : Wojke et al., 2017 - DeepSORT ; Zhang et al., 2022 - ByteTrack).
  • Pré- et post-traitement : normalisation des données d’entrée, redimensionnement maîtrisé des images, NMS ou Soft-NMS pour réduire les détections dupliquées, puis application déterministe de filtres de flou ou de mosaïque sur les zones identifiées. L’évaluation est réalisée selon les méthodologies VOC/COCO, à l’aide des métriques IoU et mAP (sources : Everingham et al., IJCV 2015 - PASCAL VOC ; Lin et al., ECCV 2014 - COCO).

Paramètres et métriques clés (deep learning pour l’anonymisation)

En pratique, le Délégué à la Protection des Données (DPO) et les équipes techniques ont besoin de critères mesurables. Les métriques suivantes permettent d’évaluer si un système d’anonymisation basé sur le deep learning atteint le niveau de qualité et de sécurité attendu.

Métrique / Attribut

Définition

Comment mesurer

Importance pour l’anonymisation

 

Precision et Recall

Precision : proportion de détections correctes parmi l’ensemble des détections. Recall : proportion d’objets correctement détectés parmi l’ensemble des objets réels.

Mesure sur des données annotées. Selon VOC/COCO, un objet est considéré comme détecté si l’IoU dépasse un seuil défini (VOC historiquement IoU=0,5 ; COCO utilise la moyenne AP pour des seuils de 0,5 à 0,95 par pas de 0,05).

En anonymisation, un Recall élevé est prioritaire afin de minimiser le risque de laisser un visage ou une plaque non flouté(e).

mAP

Mean Average Precision, moyenne des précisions par classe ; dans COCO, moyenne supplémentaire sur plusieurs seuils IoU.

mAP@0,5 (VOC) ou mAP@[0,5:0,95] (COCO), selon des protocoles standardisés.

Évaluation globale des performances du détecteur de visages et de plaques.

IoU

Intersection over Union : mesure du chevauchement entre la prédiction et l’annotation réelle (aire d’intersection / aire d’union).

Calculée pour chaque objet détecté ; le seuil dépend de l’usage et de la politique de tolérance aux erreurs.

Un IoU élevé garantit un masquage précis et réduit le risque de divulgation partielle.

Latence et FPS

Temps de traitement par image et nombre d’images traitées par seconde.

Mesures end-to-end sur l’infrastructure on-premise cible, avec résolutions représentatives.

Impact sur les délais de traitement et la planification des ressources, même hors temps réel.

Stabilité du suivi

Capacité à պահպանir l’identité d’un objet entre les images dans un suivi multi-objets.

Indicateurs tels que IDF1 ou HOTA (métriques MOT standard).

Réduit le scintillement et les interruptions de masquage sur des séquences longues.

Dérive des données (data drift)

Modification de la distribution des données d’entrée par rapport aux données d’entraînement.

Surveillance statistique et validations périodiques ; cycle de vie ML conforme à ISO/IEC 23053:2022.

Évite la baisse du Recall sur de nouveaux environnements (caméras, scènes nocturnes, etc.).

Défis et limites

L’efficacité du deep learning dans l’anonymisation dépend de la qualité des données, du choix des modèles et de la gestion des risques. Les points suivants doivent être pris en compte lors de la conception et de l’audit d’une solution.

  • Conditions difficiles : mouvements rapides de caméra, flou de mouvement, angles extrêmes ou occultations partielles compliquent la détection. Le choix de l’architecture et des techniques d’augmentation est déterminant (WIDER FACE recense ces cas).
  • Dérive de domaine : nouveaux types de caméras, compression vidéo, éclairage infrarouge ou styles variés de plaques peuvent réduire le Recall. Une validation périodique et un réentraînement éventuel sont nécessaires (ISO/IEC 23053:2022).
  • Risque pour la vie privée : les faux négatifs représentent un risque de violation du RGPD. Des approches prudentes sont recommandées, telles que l’abaissement des seuils de confiance pour la classe « face » et la revue humaine des cas limites (privacy by design - RGPD art. 25).
  • Aspects juridiques : selon les lignes directrices 3/2019 du CEPD (EDPB), l’image d’une personne - ainsi que certaines données d’identification indirecte comme une plaque d’immatriculation dans un contexte donné - peut constituer une donnée personnelle, justifiant son anonymisation avant diffusion. En cas d’incertitude, une approche fondée sur la minimisation des données (RGPD art. 5 §1 c) est recommandée.
  • Limites fonctionnelles : Gallio PRO floute automatiquement uniquement les visages et les plaques d’immatriculation. Les autres éléments peuvent être masqués manuellement. Le logiciel fonctionne on-premise et ne stocke pas de journaux contenant des détections ou des données personnelles.

Cas d’usage et pratique opérationnelle dans Gallio PRO

Le processus type comprend la préparation des données, l’inférence des modèles et la validation des résultats. La version on-premise garantit un contrôle total des données et permet de répondre aux exigences de sécurité du traitement prévues à l’article 32 du RGPD ainsi qu’aux bonnes pratiques de gestion des risques liés à l’IA.

  • Préparation : import des fichiers, sélection du profil d’anonymisation, configuration du type de filtre (flou, mosaïque) et définition d’exceptions opérationnelles.
  • Inférence : détection des visages et plaques, association inter-images, génération de masques stables et application de l’effet visuel. Pas de traitement en direct. Traitement par lots possible sur GPU/CPU locaux.
  • Contrôle qualité : revue d’échantillons et corrections manuelles si nécessaire. Pour les projets à risque élevé, échantillonnage statistique et rapport des métriques Recall/Precision sur un jeu de contrôle.
  • Gestion du cycle de vie : surveillance de la dérive des données, mise à jour des modèles conformément à ISO/IEC 23053:2022 et gestion des risques selon ISO/IEC 23894:2023 et NIST AI RMF 1.0 (2023).

Références normatives et sources

  • ISO/IEC 22989:2022 - Concepts et terminologie de l’intelligence artificielle.
  • ISO/IEC 23053:2022 - Cadre pour les systèmes d’IA utilisant le machine learning.
  • ISO/IEC 23894:2023 - Gestion des risques liés à l’intelligence artificielle.
  • ISO/IEC 20889:2018 - Terminologie et classification des techniques de dépersonnalisation.
  • Règlement (UE) 2016/679 (RGPD), notamment art. 4, 5, 25 et 32.
  • EDPB (CEPD), Guidelines 3/2019 sur le traitement des données personnelles par dispositifs vidéo.
  • NIST AI Risk Management Framework 1.0, 2023.
  • Everingham et al., PASCAL VOC, IJCV 2015.
  • Lin et al., Microsoft COCO, ECCV 2014.
  • Yang et al., WIDER FACE, CVPR 2016.
  • Deng et al., RetinaFace, CVPR 2020.
  • Guo et al., SCRFD, 2021.
  • Wojke et al., DeepSORT, 2017.
  • Zhang et al., ByteTrack, ECCV 2022.
  • Gonçalves et al., UFPR-ALPR, 2018.
  • Hsieh et al., AOLP, 2011.