Article co-écrit avec Delphine Zberro, directrice Cyber Risk.
Le 9 octobre 2020, la CNIL a publié un article sur les bonnes pratiques à respecter lors du déploiement de solutions de reconnaissance faciale dans les aéroports[i]. En effet, malgré l’épidémie de COVID-19 qui occupe toujours le devant de la scène, le sujet de la reconnaissance faciale connaît une actualité très chargée qui apporte des éléments de réflexion sur la mise en œuvre de cette technologie et son encadrement tant dans l’espace public que dans les entreprises.
Parmi les nouveaux projets de reconnaissance faciale mis en œuvre, certains sont liés à des utilisations habituelles par les forces de l’ordre[ii] et d’autres constituent une réponse à la situation pandémique. Par exemple, l’aéroport d’Atlanta a fait développer une solution permettant de contrôler les passagers en comparant leur image avec la base de données des passeports[iii]. Un projet similaire, intitulé Mona, a été lancé à l’aéroport de Lyon début octobre[iv]. Autre exemple : un projet destiné à l’usage du public français dénommé « Authentification en ligne certifiée sur mobile » (ALICEM) de l’Etat Français verra le jour, à la suite de sa validation par le conseil d’Etat le 4 novembre 2020.
Quels changements récents de l’actualité (en 2020) et quelles bonnes pratiques sont donc à considérer, en particulier pour les Délégués à la Protection des Données ?
Il est à noter que les dernières initiatives législatives en la matière marquent une volonté d’encadrement plus forte de la part des autorités à l’international. Aux Etats-Unis, la Californie a voté une loi[v] encadrant le recours à la reconnaissance faciale et imposant un moratoire de trois ans pour son usage par les forces de police. Deux projets de loi ont également été déposés devant le Sénat américain afin d’en restreindre l’usage par les organismes fédéraux[vi].
Les tribunaux sont également saisis de cette question. La cour d’appel de Londres a considéré le 8 août 2020 que le système de vidéosurveillance mis en place par la police de Cardiff violait les droits de l’Homme et devait être plus encadré[vii]. En France, l’association la Quadrature du Net a déposé au début du mois d’août 2020, un recours devant le Conseil d’Etat mettant en cause le fichier Traitement des Antécédents Judiciaires (Deloitte Société d’Avocats) qui comprend entre autres 8 millions de photos dont celles de personnes innocentées[viii]. Ce fichier permet le recours massif à la reconnaissance faciale dans l’espace public.
Du côté des entreprises, les usages de la reconnaissance faciale se diversifient et visent à devenir un véritable accélérateur de performance. On retrouve par exemple la possibilité de détecter les émotions d’un candidat lors d’un entretien de recrutement, ou encore la possibilité pour un chatbot d’ajuster ses réponses en fonction du contexte émotionnel de la personne, permettant aux entreprises de mieux connaître leurs clients et prospects et de leur proposer des services adaptés au meilleur moment. On retrouve également l’utilisation de la reconnaissance faciale dans le secteur de la restauration rapide avec la mise en place de kiosques de commande en libre-service qui permettent de payer sa commande avec un simple clin d‘œil. Enfin, la reconnaissance faciale émerge même dans le secteur des jouets connectés, qui utilise la mémorisation des captures faciales pour proposer des interactions personnalisées en temps réel selon le comportement de l’utilisateur.
Les différents acteurs généralement impliqués sur la mise en œuvre d’une telle technologie, expriment des attentes différentes :
Il convient de rappeler que la technologie de reconnaissance faciale présente un risque très élevé eu égard au respect des droits et libertés et ce, en raison de la multiplicité des usages qui peuvent être faits des données capturées – authentification auprès de certains services, identification de caractéristiques d’un individu ou dans un contexte de foules… Les bases utilisées (« gabarits ») reposant sur des modèles en 2D ou 3D des visages résultant du choix et de la rigueur de l’apprentissage, sont l’une des faiblesses soulignées, car elles peuvent favoriser la présence de biais, en particulier raciaux, dans la solution.
Nous constatons cependant une évolution récente des positionnements des éditeurs qui proposent ces solutions, en particulier à la suite des émeutes américaines de l’été 2020 et à l’usage qui en est fait par les forces de l’ordre. Par exemple, si une entreprise comme Clearview AI propose toujours un service utilisé par plus de 2000 services de police aux Etats Unis[ix] , a contrario, Amazon et Microsoft ont renoncé officiellement et temporairement à fournir leurs services aux polices américaines[x].
Note : cet article fait référence aux dernières actualités à fin novembre. Les derniers avertissements de la CNIL de février et communications des autorités notamment sur l’audit interne sur ce sujet feront l’objet d’une actualisation.
Article co-rédigé avec Cyril Chalin, Charles-Henri Carlier, Joseph Delawari et Pape Modou Mbow. La loi…
Entretien avec Jérôme de Grandmaison (VP Talent Management, Product Lines & Functions, Alstom) à l’occasion…
Article co-écrit par Ivann Le Pallec (Senior Consultant Risk Advisory) et Valentin Brohm (Manager Risk…
Five Trends Shaping the Market Hear “luxury travel,” and you’re likely to envision a swirl…
Interview réalisée par Marie-Line Ricard, Associée Blockchain & Web 3, Jérémy Stevance, Manager Blockchain &…
Article co-rédigé avec Wilfrid Biamou, Senior manager. Les évolutions réglementaires successives Alur du 26 mars…