Article traduit en français, initialement publié sur Deloitte UK.

Pourquoi l’éthique est un élément important à prendre en compte lors de la création d’algorithmes d’IA

Point de vue d’Ivana Bartoletti, Directrice technique – Vie privée et Ethique chez Deloitte, chargée de mission à l’université d’Oxford et auteur de « An Artificial Revolution : on Power, Politics and AI ».

 

L’intelligence artificielle (IA) progresse à grande vitesse, avec des innovations et de nouvelles opportunités chaque jour. C’est particulièrement encourageant dans des domaines tels que la médecine, où nous pouvons désormais découvrir des médicaments ainsi que des maladies beaucoup plus facilement – et plus tôt – qu’auparavant.

Mais lorsque nous parlons d’IA, nous parlons de bien plus que de technologie. On dit souvent que l’IA est une question de pouvoir. Le pouvoir de transformer le travail tel que nous le connaissons et le pouvoir de remodeler les relations géopolitiques, les pays s’engageant dans une course à l’IA associée à un programme de souveraineté numérique.

Mais il existe un autre pouvoir plus caché de l’IA, à savoir la possibilité d’accroître les inégalités existantes en les intégrant dans les produits eux-mêmes. Il s’agit d’un domaine très débattu qui a conduit à la prolifération d’outils et de systèmes visant à atténuer les risques d’injustice algorithmique.

Les produits d’IA sont alimentés par des données, et les données représentent la société telle qu’elle est. Dans une certaine mesure, les données sont une image de la structure du monde que nous habitons et que nous avons jusqu’à présent construit, avec ses hiérarchies, son histoire et ses structures de pouvoir. Les données n’ont rien de neutre. Leur collecte et leur classification doivent être traitées avec soin afin d’éviter d’automatiser les inégalités actuelles en les codant sans discernement dans les systèmes que nous produisons.

Des événements récents ont donné vie à cette idée pour le grand public, tel que le débat né de l’algorithme de « A Level » (équivalent du baccalauréat en France) qui a déclassé des milliers d’étudiants sur la base des mauvais résultats historiques de leur école plutôt que de leurs performances individuelles. Les citoyens et les consommateurs sont désormais plus conscients de l’immense pouvoir de la technologie et de la façon dont celle-ci ne peut plus être considérée comme distincte de la dynamique sociale qui sous-tend à la fois sa création et son déploiement. C’est ce qu’on appelle souvent « l’éthique de l’IA » et le grand public comme les décideurs politiques sont de plus en plus conscients de l’importance de minimiser les dommages potentiels que l’IA pourrait causer.

Si nous voulons exploiter la valeur des données et des technologies, nous ne devons pas éviter les questions relatives à l’éthique, à la liberté et à la dignité humaine que l’utilisation sans entrave de l’IA peut compromettre. Pour y parvenir, nous devons comprendre ce qui est en jeu, ce que nous risquons de perdre et la gouvernance et les outils que nous devons mettre en place pour garantir que nous construisons une technologie qui améliore nos vies et qui est guidée par nos valeurs humaines.