Quels sont ces leviers susceptibles de faire exploser la valeur d’un titre boursier à long terme? (Photo: 123RF)
L’utilisation de l’intelligence artificielle (IA) dans le secteur financier est en croissance, et la transparence est de mise pour obtenir un usage éthique et responsable des outils, et pour en maîtriser les divers risques.
C’est l’avis qu’ont transmis aux participants les trois panélistes de la conférence Les défis éthiques de l’essor des outils d’intelligence artificielle en finance, organisée par CFA Montréal.
«On doit être dans la transparence, c’est inévitable, estime Marie-Andrée Alain, vice-présidente et chef de la conformité et de la protection des renseignements personnels au Mouvement Desjardins. On doit être capables d’expliquer le fonctionnement du modèle d’IA qu’on utilise. Ça passe par une compréhension assez fine de nos propres ressources pour qu’on puisse fournir des explications à nos membres.»
Parce qu’ultimement, il faudra savoir si l’IA est en mesure de détecter et corriger les biais et les «hallucinations», soit les réponses incorrectes fournies avec une confiance très convaincante, explique Nada Kharrague, spécialiste en données et intelligence artificielle chez IBM.
«Les institutions financières ne peuvent se permettre de donner des informations correctes à 80% du temps seulement, affirme-t-elle. La technologie est-elle transparente et ouverte? A-t-on le contrôle sur les données qui entrent ou qui sortent? Il faut être en mesure de savoir qui est responsable si une information personnelle identifiable est exposée ou si une mauvaise recommandation financière est partagée avec un client. Lorsqu’on a une réflexion sur le choix technologique, il faut savoir si c’est une technologie qui est prête à être utilisée par une entreprise financière.»
Boîte noire
Pour pouvoir expliquer le fonctionnement de l’IA, encore faut-il qu’elle ait un modèle ouvert, estiment les panélistes.
C’est pourquoi elles suggèrent d’en sélectionner une qui est une «boîte ouverte» plutôt qu’une «boîte noire» à modèle opaque.
«Une boîte noire, c’est une technologie où on ne peut pas modifier le modèle et, surtout, on ne voit pas la source de la donnée, si elle est à jour et si on respecte les droits d’auteur, précise Nada Kharrague. Quand on utilise ces outils-là dans les institutions financières, on ne peut pas se permettre d’utiliser les données qui proviennent de boîtes noires. Certains éléments de produits technologiques sont nécessaires pour enlever cette opacité et exploiter l’IA en toute confiance.»
L’utilisateur devrait être en mesure de voir le cycle de vie du modèle, de sa conception jusqu’à son utilisation en production pour s’assurer qu’il performe selon les attentes, ajoute-t-elle. Les solutions technologiques doivent être transparentes sur l’origine des données, sur l’entraînement de ces données et sur la création du modèle.
«Vous serez ensuite facilement capable d’ajuster le tir, d’améliorer la continuité des résultats, avance-t-elle. La technologie doit également être dotée de systèmes qui permettent de superviser l’IA et de la tester constamment, en plus de pouvoir faire un suivi de ses performances.»
Le modèle devra aussi être adapté au secteur financier pour notamment permettre de gérer les trois principaux risques associés, soit les risques régulatoires, opérationnels et réputationnels.
Transparence en amont
Il faut également faire preuve de transparence en amont avec le fournisseur de la solution IA, croit Marie-Andrée Alain.
«C’est difficile avec certains fournisseurs qui veulent protéger leur modèle, explique-t-elle. L’idée n’est pas de leur voler leurs bonnes idées. C’est plutôt d’être capable d’avoir une compréhension suffisamment fine pour être confortable avec leur approche et être en mesure de l’expliquer.»
Il y a un travail à faire pour faire évoluer les partenaires et leur expliquer la réalité du secteur financier afin qu’ils comprennent bien l’approche sélectionnée.
«Lorsqu’il n’y a pas de transparence ou d’ouverture, c’est sûr qu’on n’ira pas de l’avant», laisse-t-elle tomber.
Stratégie éthique
L’entreprise qui utilise l’IA devrait se doter d’une stratégie éthique pour prévenir les futurs problèmes, estime Anne Boily, consultante en IA responsable et stratégie.
«L’erreur parfois avec l’éthique, c’est de penser qu’on va arriver avec un cadre qui va absolument tout couvrir ou une liste de principes éthiques qu’on sera, comme organisation, capable d’honorer parfaitement dans toutes les situations, soutient-elle. Les principes éthiques peuvent parfois entrer en conflit avec d’autres considérations.»
Il faut prévoir ce qu’on fera, concrètement, lorsqu’on sera placé en situation de dilemme.
«Je pense qu’une organisation, en amont, doit aligner ses objectifs d’entreprise avec ses objectifs éthiques le plus possible, explique-t-elle. Ça veut dire aussi de regarder comment on va ordonner les principes éthiques, ce qu’on va prioriser.»
Inscrivez-vous gratuitement aux infolettres de Les Affaires et suivez l’actualité économique et financière au Québec et à l’international, directement livrée dans votre boîte courriel.
Avec nos trois infolettres quotidiennes, envoyées le matin, le midi et le soir, restez au fait des soubresauts de la Bourse, des nouvelles du jour et retrouvez les billets d’opinion de nos experts invités qui soulèvent les enjeux qui préoccupent la communauté des affaires.