Amazon espère que la charte canadienne sur l’IA permettra une interopérabilité
La Presse Canadienne|Publié le 02 octobre 2024Un centre d'Amazon, à Delta, en Colombie-Britannique, le 31 mai 2024. La directrice de l’intelligence artificielle d’Amazon Web Services encourage le Canada à ne pas faire cavalier seul en matière de réglementation de la technologie. (Photo: Ethan Cairns / La Presse Canadienne)
La directrice de l’intelligence artificielle d’Amazon Web Services encourage le Canada à ne pas faire cavalier seul en matière de réglementation de la technologie.
Le Canada devrait se contenter d’une législation sur l’IA interopérable avec les garde-fous que d’autres pays finiront par utiliser, sinon de nombreuses entreprises en plein essor pourraient se retrouver en difficulté, a averti mardi Nicole Foster.
«Beaucoup de nos jeunes entreprises sont merveilleusement ambitieuses et espèrent pouvoir vendre et faire des affaires dans le monde entier, mais le fait d’avoir des règles sur mesure et uniques pour le Canada va être un facteur extrêmement limitatif», a déclaré Nicole Foster lors d’une conférence à la conférence technologique Elevate à Toronto.
Le Canada travaille sur une loi sur l’intelligence artificielle et les données qui vise à définir la manière dont le pays concevra, développera et déploiera la technologie.
La législation est toujours en cours d’examen à la Chambre des communes et ne devrait pas entrer en vigueur avant au moins l’année prochaine, mais elle est surveillée de près dans le secteur technologique et au-delà.
Beaucoup craignent que la législation ne freine l’innovation et ne pousse les entreprises à fuir vers d’autres pays plus favorables à l’IA, mais la plupart conviennent que l’industrie technologique ne peut pas être laissée seule à décider de ses propres garde-fous.
Ils estiment que le secteur a besoin de certains paramètres pour protéger les gens des systèmes qui perpétuent les préjugés, diffusent de fausses informations et provoquent de la violence ou des préjudices.
Alors que l’Union européenne, le Canada, les États-Unis et plusieurs autres pays tracent chacun leur propre voie vers des règlementations, certains membres de la communauté technologique ont appelé à la collaboration.
«Prometteurs»
Nicole Foster affirme qu’il y a des «signes vraiment prometteurs» que cela pourrait se concrétiser d’après ce qu’elle a vu dans les pays du G7.
«Tout le monde dit les bonnes choses. Tout le monde pense que l’interopérabilité est importante, a-t-elle affirmé, mais dire que c’est important et le faire sont deux choses différentes.»
Le ministre canadien de l’Industrie, François-Philippe Champagne, est en grande partie responsable de l’approche que le pays adoptera à l’égard de l’IA.
L’été dernier, il a déclaré aux participants d’une autre conférence technologique à Toronto qu’il estimait que le Canada était «en avance sur son approche» en matière d’intelligence artificielle, surpassant même l’Union européenne.
«Le Canada sera probablement le premier pays au monde à avoir une charte numérique dans laquelle nous aurons un chapitre sur l’IA responsable, parce que nous voulons que l’IA se produise ici», a-t-il avancé.
Son gouvernement a affirmé qu’il interdirait l’utilisation «imprudente et malveillante» de l’IA, établirait une surveillance par un commissaire et le ministre de l’Industrie qui imposerait des sanctions financières.
Quelle que soit la décision du Canada, Mme Foster a prévenu qu’il doit être «conscient du coût de la réglementation», car demander aux entreprises de se soumettre à des évaluations pour s’assurer que leurs logiciels sont sûrs peut souvent prendre du temps et une grande partie de ce travail est déjà en cours.
Elle pense que le meilleur modèle réglementaire identifiera les systèmes d’IA à haut risque et veillera à ce que des mesures soient mises en place pour atténuer les dommages qu’ils pourraient causer, mais ne réglementera pas les choses qui ne devraient pas l’être.
Parmi les systèmes d’IA qui, selon elle, peuvent se passer de réglementation, on trouve des systèmes banals, comme ceux qui permettent de livrer plus rapidement les bagages aux voyageurs à l’aéroport.
«Je pense qu’il faut se concentrer sur les risques que nous devons gérer et ne pas entraver l’utilisation de technologies vraiment précieuses qui vont améliorer nos vies», a fait valoir Mme Foster.
Le rôle des entreprises
Au cours d’un autre panel, Emily McReynolds, responsable de la stratégie mondiale d’IA d’Adobe, a également mentionné que les entreprises ont aussi un rôle à jouer dans le débat sur la réglementation.
Adobe, a-t-elle déclaré, s’est engagé à ne pas exploiter le Web pour les données qu’elle utilise dans ses systèmes d’IA et a plutôt choisi d’obtenir des licences d’information. Elle a présenté cette décision comme une mesure qui apporte de la transparence au travail de l’entreprise, mais qui garantit également qu’elle «respecte vraiment les créateurs», qui ont tendance à utiliser les logiciels de l’entreprise.
Adobe a choisi d’adopter une approche proactive sur des questions telles que les données et a déclaré aux autres entreprises «qu’il est vraiment important de comprendre que la création d’IA responsable n’est pas quelque chose qui vient après».