Article initialement publié sur Deloitte US et traduit de l’anglais par Grégory Abisror.

Positionner votre organisation pour réussir en matière d’éthique de l’IA

Les entreprises étant de plus en plus dépendantes de l’IA et les systèmes d’IA étant de plus en plus sophistiqués et autonomes, le rôle d’éthicien de l’IA devient un sujet d’actualité important. Pourtant, trop d’entreprises croient à tort qu’elles doivent confier ce nouveau rôle crucial à une seule personne.

 

Les questions éthiques que soulève l’IA sont complexes et multidimensionnelles. De ce fait, elles requièrent une expertise et des connaissances dans un large éventail de disciplines, allant de la technologie et de la conformité réglementaire à la philosophie, la psychologie et la sociologie – et tout ce qui se trouve entre chacune de ces disciplines.

Il est pratiquement impossible de trouver une seule personne possédant une expérience et des connaissances crédibles dans tous ces domaines. Au lieu de cela, les entreprises devraient adopter une approche d’équipe de l’éthique de l’IA pour obtenir les capacités et l’expérience multidisciplinaires requises, apprenant ainsi à orchestrer et à intégrer de manière transparente les idées de divers experts spécialisés.

 

 

L’importance croissante de l’éthique de l’IA

Le Framework IA digne de confianceTM de Deloitte souligne l’importance de relever les défis liés à l’éthique et à la gouvernance de l’IA, et notre dernière enquête « State of AI in the Enterprise » a classé la nécessité de gérer les risques éthiques de l’IA en tête des priorités. Aujourd’hui, les entreprises étendent rapidement l’échelle et la portée de leurs systèmes d’IA. Cette tendance, qui a été accélérée par la crise du COVID-19 et le besoin de distanciation sociale, donne aux entreprises de nouvelles capacités puissantes pour améliorer leur mode de fonctionnement. Cependant, elle les expose également à un risque accru que l’IA se comporte de manière inappropriée et contraire à l’éthique. Et à l’ère où les humains et les machines travaillent de plus en plus ensemble, les risques et les défis liés à l’éthique de l’IA deviennent encore plus importants et complexes.

 

Tout comme leurs homologues humains, les systèmes d’IA sont censés respecter les normes sociales et l’éthique, et prendre des décisions justes de manière cohérente, transparente, explicable et impartiale. Bien sûr, il n’est pas toujours facile de déterminer ce qui est éthique et socialement acceptable, même pour les travailleurs humains.

La partialité systémique reste un défi difficile et continu pour les humains et la société en général, et les comportements contraires à l’éthique ont toujours constitué un risque pour les entreprises. Cependant, l’IA accroît ces problèmes de manière exponentielle.

 

Avec des travailleurs humains et des interactions en tête à tête, l’étendue et l’impact d’un comportement contraire à l’éthique sont généralement limités par la portée d’une personne. Mais la portée des systèmes d’IA peut être des millions de fois plus grande. En outre, l’IA ne dispose pas actuellement de l’extraordinaire intelligence générale nécessaire pour appliquer le bon sens à la prise de décision et pour comprendre et respecter de manière autonome des normes sociales complexes. Cela peut conduire à des actions de l’IA qui sont techniquement correctes mais socialement inacceptables.

 

L’IA apprend à partir des ensembles de données utilisés pour l’entraîner, et si sa programmation et ses données d’entraînement sont biaisées, elle peut amplifier et propager ce biais à la vitesse du numérique à l’échelle mondiale – affectant un grand nombre de personnes en un clin d’œil.

 

Par exemple, une société de services financiers qui utilise l’IA pour filtrer les demandes de prêt hypothécaire pourrait constater que son algorithme discrimine injustement les personnes en fonction de facteurs qui ne sont pas socialement acceptables, comme l’origine, le sexe et l’âge. De la même façon, un système d’IA qui décide à la volée où placer les offres d’emploi en ligne pourrait injustement cibler les annonces d’emplois mieux rémunérés pour les visiteurs masculins d’un site Web, car les données historiques montrent que les hommes gagnent généralement plus que les femmes.

 

D’une réflexion après coup à la question stratégique de l’entreprise

Une IA contraire à l’éthique ou qui se comporte mal peut avoir de graves conséquences, notamment des poursuites judiciaires, des amendes réglementaires, des clients mécontents, des atteintes à la réputation et de la destruction de valeur actionnariale. Cependant, ces conséquences concrètes ne sont que la partie émergée de l’iceberg.

 

En fin de compte, la raison la plus convaincante pour que votre entreprise renforce ses capacités à gérer efficacement les problèmes d’éthique de l’IA est qu’elle n’a pas le choix. L’IA devient rapidement une aptitude commerciale essentielle et un facteur de différenciation stratégique, et les organisations qui ne savent pas comment utiliser l’IA de manière éthique se heurteront constamment à des obstacles qui rendront son utilisation difficile à grande échelle.

 

Pourtant, malgré cet impératif stratégique émergent, la plupart des entreprises manquent actuellement de mécanismes efficaces pour développer, déployer et exploiter l’IA de manière éthique et fiable.  La responsabilité de l’éthique de l’IA est plutôt dispersée dans une variété de rôles et de personnes, tous ces rôles ayant d’autres responsabilités qui, dans la pratique, sont traitées comme beaucoup plus importantes et urgentes.

 

Par exemple, les programmeurs d’IA ont pour tâche principale de développer des systèmes d’IA puissants aussi rapidement que possible, et concentrés principalement par sur toutes les choses incroyables qu’ils peuvent réaliser grâce à l’IA, il leur est facile de négliger les questions éthiques. De même, les dirigeants impliqués dans l’IA sont souvent tellement concentrés sur le pouvoir de l’IA à créer une valeur commerciale extraordinaire qu’ils ne voient pas les inconvénients éthiques potentiels pour leurs clients et/ou la société en général. Par ailleurs, lorsque les questions d’éthique de l’IA se posent, elles sont souvent envisagées du point de vue des régulateurs et des avocats.

 

Aujourd’hui, la plupart des entreprises n’ont personne dont la responsabilité principale est d’identifier et de traiter les problèmes d’éthique de l’IA dans toute l’entreprise. Pour aggraver les choses, les personnes impliquées dans l’IA ont tendance à être des experts dans des sujets tels que la technologie, les affaires, le droit et la conformité réglementaire et manquent d’expertise dans des sujets tels que la psychologie, la sociologie et la philosophie qui sont essentiels pour aborder efficacement les questions d’éthique.

 

Résoudre le problème : il faut une équipe

Il est tentant de penser que la façon la plus simple de remplir le rôle d’éthicien de l’IA est d’embaucher une personne ayant une expertise dans tous les domaines requis et de la charger de veiller à ce que toutes les questions d’éthique de l’IA de l’organisation soient traitées. Cependant, à moins que votre entreprise ne cherche simplement à « cocher la case » de l’éthique de l’IA, il y a au moins deux raisons pour lesquelles cette approche ne fonctionnera pas.

 

Premièrement, il est pratiquement impossible de trouver une personne ayant un niveau d’expertise crédible dans tous les domaines requis. Ce haut niveau de crédibilité est essentiel car les exigences de l’IA éthique sont souvent en contradiction avec ce que les développeurs et les dirigeants de l’IA choisiraient de faire par eux-mêmes (c’est pourquoi un éthicien de l’IA est nécessaire en premier lieu). Pourtant, en l’absence de niveaux d’expertise crédibles, il est facile pour les spécialistes techniques et commerciaux de simplement rejeter ou ignorer ce que dit l’éthicien de l’IA.

 

Deuxièmement, même si une entreprise a la chance de trouver une personne ayant l’étendue et la profondeur d’expertise nécessaires pour remplir efficacement le rôle d’éthicien de l’IA, la portée de l’éthique de l’IA dépassera probablement les capacités de cette personne dans un avenir très proche, car l’IA devient de plus en plus sophistiquée et importante dans les affaires.

 

Nous avons vu une situation similaire se produire dans le domaine de la data science. Il y a quelques années à peine, de nombreuses entreprises s’efforçaient d’embaucher des Data Scientists, et les exigences de ce rôle étaient conceptuellement très similaires à celles du rôle d’éthicien de l’IA, dans le sens où il exigeait un mélange diversifié de capacités techniques et non techniques qu’il est presque impossible de trouver chez une seule personne. En outre, alors que les entreprises voyaient clairement la nécessité d’embaucher des Data Scientists – étant donné l’importance croissante des données et de l’analyse – un bon nombre d’entre elles ne savaient pas vraiment quoi faire de leurs Data Scientists une fois qu’elles les avaient embauchés. En comparant cette situation à celle d’aujourd’hui, vous constaterez qu’à mesure que le domaine de la data science a pris de l’ampleur et de l’importance, le rôle du Data Scientist dans de nombreuses entreprises a été remplacé par une approche d’équipe coordonnée qui comprend des experts distincts dans des domaines spécialisés tels que la préparation des ensembles de données, l’ingénierie des données, l’apprentissage automatique et le test/déploiement des modèles.

 

Il peut sembler séduisant – ou du moins opportun – de désigner une personne comme unique champion de l’éthique de l’IA. Cependant, une telle approche risque d’échouer. L’éthique de l’IA devenant une question stratégique pour les entreprises, toute personne impliquée dans l’IA doit être responsable de l’éthique de l’IA et doit en faire une priorité plus élevée dans ses activités quotidiennes.

 

S’il est manifestement nécessaire de confier à une personne de l’entreprise la responsabilité officielle de superviser l’éthique de l’IA, cette personne ne doit être considérée que comme un élément d’un ensemble plus vaste de ressources en matière d’éthique de l’IA.

 

Un responsable au niveau de la direction – vraisemblablement le Chief Trust Officer ou le Chief AI Ethics Officer, pour les entreprises qui en ont un – serait un choix logique pour prendre les devants. Le rôle dédié de l’éthicien de l’IA pourrait ajouter de la valeur au processus ; cependant, le rôle plus large de supervision et de défense de l’éthique de l’IA dans toute l’entreprise nécessitera probablement plus d’autorité organisationnelle que cela pour être efficace.

 

 

Responsabilités spécifiques et aptitudes essentielles

L’une des principales responsabilités d’un éthicien ou d’un champion de l’IA serait d’améliorer l’approche technique de l’IA en ajoutant des perspectives éthiques, sociales et politiques à la conception, au développement et au déploiement des systèmes d’IA.

D’autres responsabilités clés consistent à donner des conseils sur les pratiques éthiques en matière d’IA, à se protéger contre les conséquences involontaires d’un mauvais comportement de l’IA et à garantir la responsabilité des décisions et des actions liées à l’IA.

S’acquitter de ces responsabilités exige un large éventail d’expertise, de compétences et de capacités, notamment :

  • Des connaissances techniques. La technologie étant le fondement de l’IA, le champion de l’éthique de l’IA et son équipe doivent avoir une solide connaissance pratique des technologies de l’IA. Ils ne peuvent pas donner des conseils crédibles sur les questions d’éthique de l’IA s’ils ne comprennent pas pleinement les capacités et les limites de la technologie. Même s’ils ne codent pas les systèmes d’IA, ils doivent avoir une connaissance approfondie des concepts techniques tels que la différence entre l’apprentissage supervisé et non supervisé, la manière dont le consentement de l’utilisateur est obtenu et si le modèle d’apprentissage automatique utilisé favorise la transparence – tous les détails importants qui affectent la manière dont un système d’IA est conçu, développé et déployé.

 

  • Des connaissances réglementaires. L’éthique de l’IA implique bien plus que la conformité réglementaire. En fait, le rythme de l’innovation en matière d’IA est si rapide que les lois et règlements connexes sont presque toujours en retard sur ce que la technologie peut faire (et sur l’évolution des normes sociales et des perceptions du public). Cependant, la connaissance de la réglementation reste essentielle. Cela inclut non seulement la connaissance des réglementations actuelles liées à l’IA, telles que les lois sur la confidentialité des données, mais aussi une perspective stratégique prospective sur ce qui pourrait se produire à l’avenir sur la base des réglementations existantes et des défis liés à l’éthique qui sont actuellement en tête des préoccupations des législateurs et des régulateurs.

 

  • Le sens des affaires et la connaissance du secteur. L’éthique de l’IA dans un contexte commercial ne peut pas être un simple exercice philosophique. Les politiques, cadres et autres directions liés à l’éthique de l’IA doivent être utilisables dans le monde réel. Cela nécessite une connaissance et une expérience pratiques des affaires. Sans une compréhension claire de l’industrie et de l’entreprise – et de la façon dont l’éthique de l’IA pourrait affecter divers processus, systèmes et groupes de parties prenantes – les exigences en matière d’éthique de l’IA peuvent facilement devenir si lourdes qu’elles sont tout simplement ignorées. Il est également essentiel de savoir comment l’industrie aborde l’éthique de l’IA.

 

  • Des compétences en communication et la capacité à travailler au-delà des frontières organisationnelles. Les questions d’éthique de l’IA sont, de par leur nature même, complexes et difficiles à comprendre. En outre, elles obligent souvent les gens à faire des choses peu intuitives ou potentiellement contraignantes. Aider les gens à comprendre les problèmes et les persuader de changer requiert de solides compétences en communication. Cela inclut l’écoute active, l’empathie personnelle et la capacité d’exprimer clairement ce qui doit être fait – et pourquoi. Il faut également être capable d’opérer efficacement au-delà des frontières organisationnelles, en montant et en descendant dans la hiérarchie de l’entreprise, ainsi qu’entre les fonctions et les unités commerciales – souvent sans autorité directe sur les personnes concernées.

 

Avancer sur l’éthique de l’IA

On peut ne pas être d’accord sur la meilleure façon de remplir le rôle d’éthicien de l’IA. Cependant, personne ne peut nier le fait que l’IA devient rapidement une capacité commerciale fondamentale et que les systèmes d’IA doivent se comporter de manière éthique et appropriée. Il n’est donc plus possible d’ignorer la question de l’éthique de l’IA. Que vous penchiez pour une approche individuelle ou en équipe, l’essentiel est de choisir une approche et de vous lancer – puis d’ajuster si nécessaire en fonction des obstacles et des opportunités que vous rencontrez. C’est maintenant qu’il faut commencer.