Article co-écrit avec Bertrand Aubry, Directeur Risk Advisory et Paul-Marie Carfantan, Consultant Risk Advisory.

Après le règlement général sur la protection des données (RGPD), l’Union Européenne souhaite amorcer un processus de réglementation de l’intelligence artificielle (IA). Cette volonté a été annoncée début juillet comme partie intégrante d’un effort européen pour encadrer l’intelligence artificielle. L’objectif est de faciliter le développement d’une technologie à la fois performante et respectueuse des lois, des principes et des valeurs européennes. L’IA de confiance, robuste, légale et éthique, est la stratégie européenne de différenciation face à la Chine et aux États-Unis. Cette démarche réglementaire, prévue courant 2020, apparait comme le nouveau défi des entreprises européennes en pleine transformation digitale.

Un nouveau standard pour la réglementation de l’intelligence artificielle

Ursula von der Leyen, la nouvelle présidente de la Commission Européenne (CE), a déclaré dans son agenda pour l’Europe qu’elle souhaitait légiférer pour promouvoir une IA Responsable avant la fin des 100 premiers jours de son mandat ; soit courant 2020.

La réglementation devrait s’inscrire dans la réflexion déjà menée par la Commission Européenne :

1. En avril 2018, Bruxelles dévoile sa stratégie IA. Soutenue par ses investissements de 20 milliards d’euros d’ici à 2020, la CE souhaite permettre le développement des bénéfices apportées par l’AI tout en prenant en compte la gestion des impacts socio-économiques (santé, énergie, sécurité, équité, …) ;

2. En juin 2018, l’opérationnalisation de la stratégie européenne est amorcée avec la création du groupe d’experts de haut niveau sur l’IA (AI HLEG – High Level Expert Group on Artificial Intelligence). Le groupe réunit une cinquantaine d’experts issus du secteur privé, de la recherche et de la société civile pour donner les lignes directrices de la gestion des risques IA et des politiques d’investissements ;

3. En juin 2019, l’opérationnalisation de la stratégie européenne se poursuit à travers le département digital de la CE. Celui-ci a publié des documents qui suggèrent un premier cadre réglementaire de l’IA en Europe : des obligations de transparence ainsi que l’évaluation systématique d’IA pour éviter de potentielles discriminations ou la violation des droits fondamentaux.

La réglementation se donne pour objectif de répondre à des inquiétudes croissantes sur l’utilisation de l’Intelligence Artificielle

Les 7 principes européens représentent chacun un point d’entrée pour analyser les risques reliés à la chaîne de valeur de l’IA : depuis sa conception stratégique jusqu’à sa maintenance.

Citons quelques exemples de risques avérés liés à l’utilisation de l’Intelligence Artificielle :

Reconnaissance faciale : les visages de certaines ethnies ou des femmes sont moins bien reconnus que les visages de type caucasiens et masculins (1) ;
Évaluation des risques financiers : les consommateurs de certaines ethnies ont des intérêts de prêts plus élevés en moyenne que d’autres (2) ;
Publicités personnalisées : la possibilité de personnaliser des publicités en fonction de l’âge, du sexe ou du code postal peut se révéler discriminatoire
Chatbots / Voicebots : la génération de langage, si elle s’appuie sur un apprentissage basé sur des corpus inappropriés, peut générer des propos discriminatoires (3) ou à caractère haineux ou raciste.
Recrutement : certaines ethnies ou des femmes se sont vues discriminées avec des propositions de salaires inférieures en raison d’un algorithme ayant appris sur des données biaisées.

Prenons le cas d’une discrimination à l’embauche, en lien avec des biais algorithmiques défavorisant les femmes. L’entreprise, pour éviter ce risque, doit s’assurer a minima des éléments suivants :

Respect de la vie privée et gouvernance des données : une gouvernance des données diagnostiquerait que les données d’entraînement de la solution reflètent un biais de recrutement masculin, discriminant pour les femmes ;
Transparence : grâce à des modèles mathématiques explicables et un contrôle permanent des possibles biais sur les données en entrée et en sortie du modèle, l’on pourrait identifier les biais avant même la phase de test ;
Diversité, non-discrimination et équité : une équipe multidisciplinaire, composée d’hommes et de femmes, intégrant une diversité représentative, et dotée de protocoles adaptés, favoriserait la détection des biais algorithmiques impactant les personnes ;
Action et contrôle humain : une communication de la part de l’entreprise de son utilisation d’algorithmes pour le processus de recrutement obligerait l’entreprise à réfléchir en avance de phase aux critères (ou « features ») pris en compte dans les modèles, et à leur poids dans le modèle ;
Robustesse technique et sécurité : des tests adaptés, prenant en compte tous les cas de figure et visant à s’assurer que les algorithmes sont fiables et traitent efficacement chaque sous-typologie de cas, indiqueraient que le système ne fonctionnait pas correctement sur une population féminine ;
Bien-être social et environnemental : la prise en compte des éléments sociétaux et environnementaux dans les modèles favoriserait l’adoption de la solution ;
Responsabilité : l’évaluation systématique de l’algorithme, des données et du processus de conception, développement et déploiement mettrait en lumière les failles de la solution.

Se préparer aux implications de la réglementation européenne

Ces enjeux clés, associés à la réglementation, poussent les entreprises, d’ores et déjà, à amorcer une réflexion sur la gouvernance de l’IA. Cette réflexion doit s’articuler de la manière suivante :

1. Définir ses valeurs éthiques et de responsabilité dans l’utilisation de l’IA ;
2. S’approprier les principes européens : chaque organisation devra traduire les principes européens pour ces propres enjeux dans un cadre de gouvernance ;
3. Décliner en règles, processus et dispositifs de contrôles, en s’appuyant sur les technologies disponibles ;
4. Diagnostiquer les solutions et processus à risque : une fois rédigé, le cadre de gouvernance permettra d’évaluer les solutions et processus sensibles au sein de l’organisation ;
5. S’équiper et innover pour traiter les risques : une fois identifiés, les risques devront être traités au moyen d’outils et de protocoles de gestion des risques IA. Par exemple, des outils semi-automatisés permettant d’expliquer des décisions (Solution Deloitte Lucid) ou de détecter les biais dans les données, impactant l’apprentissage des algorithmes (Solution Deloitte Guardian) et des méthodes facilitant l’interprétabilité et la gestion de ces risques en pratique et la mise en place de contrôles.
6. Monitorer les modèles dans le temps : des processus doivent être définis pour monitorer la performance des modèles dans le temps, détecter si les données sources évoluent, et s’assurer systématiquement du traitement des biais a priori de la constitution de tout jeu d’entrainement pour ré-entrainer ses modèles.

Dans cette période de transition, de nouvelles opportunités s’ouvrent aussi pour les entreprises en pleine transformation digitale : intégrer de nouvelles manières de penser et rendre concrète et opérationnelle l’innovation technologique dans l’entreprise. Comme pour le RGPD, ce travail de mise en œuvre d’un cadre de gouvernance et de processus adaptés pourrait se révéler très positif pour les early adopters, et notamment être le moteur de l’adoption à l’échelle de l’IA au sein de l’organisation.

 

(1) http://gendershades.org/overview.html
(2) https://faculty.haas.berkeley.edu/morse/research/papers/discrim.pdf
(3) https://www.theverge.com/2019/3/28/18285178/facebook-hud-lawsuit-fair-housing-discrimination

6+