Le ministère qui supervise le filet de sécurité sociale fédéral a discrètement commencé à tester des systèmes d’intelligence artificielle qui pourraient un jour faciliter et accélérer l’obtention de réponses sur les prestations et les services.
Une petite équipe d’Emploi et Développement social Canada expérimente des moyens de simplifier la navigation dans l’un des plus grands organismes de services au pays, en matière de gestion des prestations de retraites publiques, de l’assurance-emploi, des prestations familiales et des régimes d’invalidité. Le ministère comprend des bureaux, des centres d’appels et des centres de correspondance.
L’équipe espère en arriver à ce que les gens interagissent directement avec des robots plutôt que des humains, notamment lors de discussions en ligne pour obtenir des informations sur des programmes gouvernementaux.
Une première ébauche de la stratégie d’intelligence artificielle du ministère, obtenue par La Presse canadienne en vertu des lois sur l’accès à l’information, laisse entendre que les risques associés aux agents conversationnels incluent: «fournir des informations incorrectes aux Canadiens», «produire un contenu incohérent» ou «reproduire un comportement indésirable».
Le pire des cas? À l’interne, un agent conversationnel pourrait dire à un employé «d’envisager une action « catastrophique »» — tel un ordre de type Terminator de tuer tous les humains — tandis que sur le réseau externe, il pourrait commencer à reproduire un discours de haine.
Un robot Twitter créé par Microsoft a fait précisément cela il y a trois ans, après avoir interagi avec suffisamment d’utilisateurs et «appris» à imiter leurs écrits. Cette réaction du robot a été provoquée délibérément par des utilisateurs étant arrivés à leurs fins en une seule journée.
La stratégie souligne que le ministère doit gérer les risques juridiques, les questions éthiques et les problèmes logistiques, sans parler de la «perception du public» — et des avancées technologiques rapides qui signifient que «les réponses à ces risques sont des cibles mouvantes».
Le gouvernement fédéral a fixé des règles de base sur la manière dont les ministères et agences peuvent utiliser l’intelligence artificielle pour prendre des décisions sur les prestations et les services.
Dans une allocution, lundi matin — quelques heures avant sa démission du cabinet —, lors d’une conférence de fonctionnaires, la présidente du Conseil du trésor, Jane Philpott, a affirmé que l’ère de l’intelligence artificielle était bel et bien amorcée.
«Quand les gens vont en ligne et font leurs achats de Noël, l’intelligence artificielle influence leur manière de faire leurs achats de Noël», a-t-elle souligné. «Au gouvernement, nous voulons nous assurer de tirer parti des mêmes types d’outils pour fournir de bons services aux personnes, mais nous devons être extrêmement transparents dans la manière de procéder.»
Au ministère, une équipe a commencé modestement en essayant de créer des services utilisés par les employés du gouvernement eux-mêmes, de manière à ce que les procédés puissent être testés avec soin avant d’être utilisés auprès de la population.
Les ministères étudient déjà des moyens d’utiliser l’intelligence artificielle et l’«apprentissage automatique» pour automatiser certaines tâches et pour mener des projets à long terme, dont la préservation et l’enseignement des langues autochtones.
En établissant de nouvelles règles, les ministères devront être en mesure d’expliquer pourquoi une décision a été prise sur un dossier en particulier — et ne pourront pas se contenter de répondre que cette tâche a été effectuée par un ordinateur, a indiqué la ministre Philpott.
Selon elle, le potentiel d’amélioration des services fédéraux est illimité, mais cela pose également des problèmes d’éthique et de responsabilité pour le gouvernement.
Les humains ne seront pas complètement éliminés du processus, a assuré la ministre: le gouvernement veillera également à ce que les décisions prises par des machines soient justes, équitables et cohérentes.