L’inflation atteint des sommets que l’on avait pas connus depuis 30 ans au Canada et 40 ans aux États-Unis. (Photo: 123RF)
LA TECHNO PORTE CONSEIL est une rubrique qui vous fait découvrir des plateformes, de nouveaux outils ou de nouvelles fonctionnalités pouvant être implantés facilement et rapidement dans votre quotidien au travail, en plus de démystifier les tendances technos du moment.
LA TECHNO PORTE CONSEIL. Alors que l’inflation atteint des sommets que l’on avait pas connus depuis 30 ans au Canada et 40 ans aux États-Unis, voilà que l’économiste Philippe Goulet-Coulombe a conçu un modèle algorithmique basé sur l’intelligence artificielle qui permet non seulement de la prévoir, mais aussi de comprendre ses causes.
«Notre modèle est capable de faire des prévisions sur un ou deux trimestres, explique celui qui est aussi professeur au département des sciences économiques de l’ESG UQAM depuis juin. Mais surtout, il est capable de mettre le doigt sur les causes. C’est un peu ça notre contribution scientifique.»
La machine offre aussi des prédictions sur un an, mais celles-ci sont moins précises, en raison des impondérables «comme la guerre ou l’apparition d’un nouveau variant».
«Ce n’est quand même pas Nostradamus», image l’économiste.
L’économiste et professeur au département des sciences économiques de l’ESG UQAM, Philippe Goulet-Coulombe. (Photo: Laurence Hervieux-Gosselin — courtoisie)
Formé à partir variables et composantes
Pour prédire l’inflation, le modèle prend en compte divers indicateurs contenus dans trois composantes qui sert de catégories à l’apprentissage machine, soit l’écart de production (la différence entre l’offre agrégée et la demande agrégée), l’attente inflationniste et le prix des commodités.
L’outil, développé sur un modèle de réseau de neurones, a été nourri d’une base de données américaine publique comptant 250 indicateurs trimestriels et 150 indicateurs mensuels. «Dans cette base de données, tu as tout ce qui est pertinent pour caractériser une économie moderne», détaille le professeur.
Si on retrouve les indicateurs standards comme le PIB et le taux de chômage, l’algorithme a aussi accès à d’autres indicateurs, tout aussi pertinents, sur la mesure du taux de change, sur l’immobilier ou sur le marché du travail pour faire ses calculs et prévisions.
Un filtre manuel a été fait pour classer les variables dans les trois composantes, ce qui a permis de faire un tri dans les variables pour garder celles qui sont réellement pertinentes au développement de la machine.
«On a gardé environ la moitié des indicateurs, précise Philippe Goulet-Coulombe. Et dans cette moitié, on laisse l’algorithme choisir ce qu’il priorise.»
Si c’est à partir des données américaines que la machine a été conçue, c’est simplement une question de quantités de données disponibles, relate l’économiste.
«Les données canadiennes commencent à avoir plus de matériels à partir des années 1980 alors qu’aux États-Unis, la quantité est là dès 1960. Et la section sur les années 1970 est assez informative, parce qu’à ce moment, l’inflation était élevée.»
Une version canadienne est cependant en cours de développement, mais nécessite un peu plus de temps pour justement passer outre l’aspect du manque de données.
L’objectif ultime est évidemment de rendre disponibles les prévisions de l’algorithme sur le site de la Chaire en macroéconomie et prévisions de l’ESG UQAM.
Des risques de biais dans tout ça?
Philippe Goulet-Coulombe le concède, l’IA et les réseaux de neurones sont généralement des boîtes noires, où il est difficile de juger de la qualité de la prédiction faite. «Par contre, notre architecture est différente vue que notre modèle interprète aussi ce qu’il produit», précise l’économiste.
La connaissance du secteur économique et des outils en intelligence artificielle — comme il a déjà fait des travaux sur l’apprentissage automatique — l’ont aidé à raffiner la machine lorsqu’elle a eu besoin d’être modifiée. «Pour moi, ce ne sont pas des biais, car il est évident que ces machines-là ont besoin d’amour», ajoute-t-il.
Il précise également que par défaut, les prévisions sont imparfaites. Par conséquent, «on veut être en mesure d’expliquer ce qui a mené à une prévision», explique le chercheur.
Pour ne pas manquer ce rendez-vous, recevez les «La techno porte conseil» dans votre boîte de courriels !