Article initialement publié sur Deloitte US et traduit de l’anglais par Grégory Abisror.

Appliquer le cadre et les principes de la GRE du COSO pour faciliter la mise en œuvre et le passage à l’échelle de l’IA

L’intelligence artificielle (IA) va continuer à transformer les stratégies, les solutions et les opérations des entreprises. Par conséquent, les risques liés à l’IA sont devenus une priorité absolue, en particulier pour l’IA à grande échelle. Le cadre GRE du COSO, avec des considérations issues du cadre d’IA de confiance™ de Deloitte, peut aider votre organisation à réfléchir aux risques et à réaliser pleinement le potentiel de l’IA.

 

Le cadre GRE du COSO : faire face aux risques liés à l’IA

À mesure que l’IA devient plus omniprésente dans les entreprises et dans notre vie quotidienne, les organisations n’auront probablement plus la possibilité d’ignorer ou d’éviter les risques uniques qui accompagnent l’adoption de l’IA. Elles doivent plutôt apprendre à identifier, gérer et répondre à ces risques de manière efficace. Le problème est aggravé par le fait que l’IA n’est souvent pas limitée à une fonction spécifique comme l’informatique, mais affecte plutôt de multiples fonctions dans une organisation. Les organisations doivent concevoir et mettre en œuvre des stratégies et des structures de gouvernance, de gestion des risques et de contrôle pour réaliser le potentiel de la collaboration des humains avec l’IA. Heureusement, l’IA est comme les autres composants technologiques d’une organisation et peut donc être régie avec succès par une GRE efficace.

Depuis 1985, le « Committee of Sponsoring Organizations of the Treadway Commission (COSO) », organisme bénévole du secteur privé, s’efforce d’aider les organisations à améliorer leurs performances en développant un leadership éclairé qui renforce le contrôle interne, la gestion des risques, la gouvernance et la dissuasion de la fraude. La version la plus récente du cadre GRE du COSO, adoptée en 2017, souligne l’importance d’intégrer la GRE à l’ensemble d’une organisation à travers cinq composantes essentielles :

  • Gouvernance et culture
  • Stratégie et fixation des objectifs
  • Performance
  • Examen et révision
  • Information, communication et reporting

 

En s’appuyant sur le cadre GRE du COSO, les organisations peuvent identifier et gérer les risques spécifiques à l’IA et établir des pratiques pour optimiser les résultats tout en gérant l’exposition aux risques tels que les biais involontaires et le manque de transparence.  Son application peut contribuer à améliorer la confiance des parties prenantes au sein et à l’extérieur de l’organisation et à traiter de façon proactive les risques émergents liés à l’IA.

 

 

Le cadre pour une IA digne de confiance de Deloitte

L’IA et les modèles qui la font fonctionner doivent également être étroitement surveillés au sein d’une organisation. Lors de la conception et de la mise en œuvre de l’IA, six dimensions clés peuvent aider à préserver l’éthique et à élaborer une stratégie d’IA digne de confiance pour l’entreprise, à laquelle les gens peuvent adhérer. Bien qu’il n’existe actuellement aucun cadre faisant autorité en matière d’éthique de l’IA, le « Trustworthy AI Framework » de Deloitte peut servir de moyen de comprendre et d’évaluer les risques et les considérations éthiques spécifiques à l’IA et peut être un outil précieux pour compléter le cadre GRE du COSO, notamment en ce qui concerne la gouvernance et la performance. Les organisations peuvent l’utiliser pour aider à déterminer et à surveiller les risques auxquels elles s’exposent.

 

 

 

Équitable et impartial

Évaluez si les systèmes d’IA comportent des contrôles internes et externes pour permettre une application équitable pour tous les participants.

 

Transparent et explicable

Aidez les participants à comprendre comment leurs données peuvent être utilisées et comment les systèmes d’IA prennent des décisions. Les algorithmes, les attributs et les corrélations sont ouverts à l’inspection.

 

Responsable et redevable

Mettez en place une structure organisationnelle et des politiques qui peuvent aider à déterminer clairement qui est responsable du résultat des décisions des systèmes d’IA.

 

Robuste et fiable

Confirmez que les systèmes d’IA sont capables d’apprendre des humains et d’autres systèmes et de produire des résultats cohérents et fiables.

 

Respect de la vie privée

Respectez la confidentialité des données et évitez d’utiliser l’IA pour exploiter les données des clients au-delà de leur utilisation prévue et déclarée. Permettez aux clients d’accepter ou de refuser le partage de leurs données.

 

Sûr et sécurisé

Protégez les systèmes d’IA contre les risques potentiels (y compris les risques cyber) qui peuvent causer des dommages physiques et numériques.

 

 

 

Gérer les risques pour réaliser le potentiel de l’IA à l’échelle 

La conception agile de Deloitte COINIA signifie également qu’elle peut être utilisée aujourd’hui non seulement pour les actifs cryptographiques, mais aussi pour une base plus large d’actifs numériques actuels et futurs puisqu’ils sont de plus en plus plébiscités par la communauté business. Cela peut inclure le suivi de la chaîne d’approvisionnement, la gestion des droits numériques, le transfert de titres immobiliers et d’autres formes de numérisation des actifs du monde réel. Deloitte COINIA est une extension de la plateforme primée Cortex de Deloitte, une plateforme de données basée sur le cloud qui exploite la puissance des données en intégrant de manière sécurisée et transparente l’acquisition de données avec la préparation et l’analyse des données. Elle combine une technologie avancée avec des processus métiers pour générer des informations significatives et précieuses de manière réitérable et cohérente.

 

Il est important de noter que si les technologies offrent des avantages inégalés dans le processus d’audit, elles ne sont pas seules à transformer l’audit. Sans l’apport de professionnels de l’audit compétents, capables de fournir une réflexion approfondie, des jugements solides et de donner un sens aux résultats – et sans une méthodologie innovante qui évolue tout en étant fondée sur des normes, des réglementations et des directives communes – la technologie perd en soi son contexte et son objectif. Lorsque les technologies d’audit sont les plus performantes, elles fonctionnent ensemble dans le cadre d’une méthodologie d’audit efficace qui incorpore le jugement et l’expérience des auditeurs, le tout permettant de fournir des audits de très haute qualité et de générer des informations qui mettent en évidence les risques et les opportunités commerciales. La promesse de cette puissante combinaison n’est pas seulement un changement de la donne pour le monde de l’audit, mais constitue également un avantage pour les organisations et un renforcement de la confiance des investisseurs en général.

 

Deloitte a célébré son 175ème anniversaire en 2020, et l’audit a connu de multiples changements au cours de toutes ces années. À chaque point d’inflexion, il joue un rôle vital dans la restauration de la confiance dans les marchés financiers et des investisseurs. Nous nous dirigeons actuellement  vers un autre point d’inflexion qui aura un impact considérable sur l’avenir de l’audit.