IA: pas une menace immédiate, mais une action est nécessaire
La Presse Canadienne|Publié le 29 novembre 2023«Résolvons ce problème avant qu’il n’arrive» explique Brad Smith, président de Microsoft(Photo: La Presse Canadienne)
Selon le président de Microsoft, l’intelligence artificielle (IA) ne représente pas une menace immédiate pour l’existence de l’humanité, mais il pense que les gouvernements et les entreprises doivent agir plus rapidement pour faire face aux risques de la technologie en mettant en œuvre ce qu’il appelle des «freins de sûreté».
«Nous ne voyons aucun risque dans les années à venir, au cours de la prochaine décennie, que l’intelligence artificielle pose une menace existentielle pour l’humanité, mais «résolvons ce problème avant qu’il n’arrive», explique Brad Smith lors d’une entrevue accordée à La Presse Canadienne.
Brad Smith, un pilier de Microsoft qui a rejoint l’entreprise en 1993 souligne qu’il est important de maîtriser les problèmes posés par la technologie afin que le monde ne soit pas «constamment inquiet et en train d’en parler».
Il estime que la solution aux problèmes potentiels réside dans les «freins de sûreté», qui pourraient agir comme les mécanismes d’urgence intégrés dans les ascenseurs, les bus scolaires et les trains à grande vitesse.
Ils devraient être intégrés dans les systèmes d’intelligence artificielle à haut risque qui contrôlent les infrastructures critiques telles que les réseaux électriques, les réseaux d’alimentation en eau et la circulation.
«Tirons les leçons de l’art», affirme Brad Smith.
«Tous les films dans lesquels la technologie impose une menace existentielle se terminent de la même manière : les êtres humains débranchent la technologie. Il faut donc prévoir un interrupteur, un frein de sécurité et s’assurer que la technologie reste sous le contrôle de l’homme. Adoptons cela et faisons-le maintenant.»
Les remarques de Brad Smith interviennent alors qu’une course à l’utilisation et à l’innovation en matière d’IA s’est engagée dans le secteur technologique et au-delà, à la suite de la sortie de ChatGPT, un robot conversationnel conçu pour générer des réponses semblables à celles d’un être humain à des invites textuelles.
Microsoft a investi des milliards dans le créateur de ChatGPT, OpenAI, établi à San Francisco, et possède également sa propre technologie basée sur l’IA, Copilot, qui aide les utilisateurs à créer des brouillons de contenu, leur suggère différentes façons de formuler un texte qu’ils ont écrit et les aide à créer des présentations PowerPoint à partir de documents Word.
Mais nombreux sont ceux qui s’inquiètent du rythme des progrès de l’IA. Par exemple, Geoffrey Hinton, un pionnier britanno canadien de l’apprentissage en profondeur souvent considéré comme le «parrain de l’IA», a déclaré qu’il pensait que la technologie pourrait entraîner des préjugés et des discriminations, du chômage, des chambres d’écho, de fausses nouvelles, des robots de combat et d’autres risques.
Un leadership canadien
Plusieurs gouvernements, dont celui du Canada, ont commencé à élaborer des garde-fous autour de l’IA.
Dans un rapport de 48 pages publié mercredi par Microsoft, Brad Smith a indiqué que son entreprise soutenait les efforts déployés par le Canada pour réglementer l’IA.
Ces efforts comprennent un code de conduite volontaire publié en septembre, dont les signataires _ notamment Cohere, OpenText, BlackBerry et Telus _ promettent d’évaluer et d’atténuer les risques de leurs systèmes basés sur l’IA, de les surveiller pour détecter les incidents et d’agir sur les problèmes qu’ils développent.
Bien que le code ait des détracteurs, comme Tobi Lütke, fondateur de Shopify, qui y voit un exemple de l’utilisation par le pays de trop d’«arbitres» alors qu’il a besoin de plus de «bâtisseurs», Brad Smith a souligné dans le rapport qu’en élaborant un code, le Canada a «fait preuve d’un leadership précoce» et aide le monde entier à travailler à un ensemble commun de principes partagés.
Le code volontaire devrait être suivi par la future loi canadienne sur l’intelligence artificielle et les données, qui créerait de nouvelles dispositions pénales pour interdire les utilisations de l’IA qui pourraient causer de graves préjudices.
La législation, connue sous le nom de projet de loi C-27, a été adoptée en première et deuxième lecture, mais est toujours en cours d’examen en commission. Ottawa a déclaré qu’elle entrerait en vigueur au plus tôt en 2025.
Interrogé sur les raisons pour lesquelles il pense que les gouvernements doivent agir plus rapidement dans le domaine de l’IA, Brad Smith dit que le monde a connu une «année extraordinaire» depuis la mise en service de ChatGPT.
«Lorsque nous disons d’aller plus vite, ce n’est franchement pas une critique», indique-t-il.
«Il s’agit de reconnaître la réalité actuelle, où l’innovation a progressé à un rythme plus rapide que la plupart des gens ne l’avaient prévu»
Il considère toutefois que le Canada est l’un des pays les mieux préparés à faire face au rythme de l’IA, car les universités mettent depuis longtemps l’accent sur cette technologie et des villes comme Montréal, Toronto et Vancouver ont été des foyers d’innovation dans le domaine.
«S’il y a un gouvernement qui, à mon avis, a une tradition sur laquelle il peut s’appuyer pour adopter quelque chose comme cela, je pense que c’est le Canada. J’espère que ce sera le premier», affirme Brad Smith.
«Ce ne sera pas le dernier si c’est le premier.»
Une approche internationale nécessaire
Toutefois, alors que la loi canadienne sur l’IA fait l’objet d’une «réflexion approfondie», Brad Smith estime que le Canada devrait réfléchir à la manière dont il peut adopter des mesures de protection supplémentaires entre temps.
Par exemple, au cours du processus d’acquisition de systèmes d’IA
à haut risque, il pense que les partenaires cherchant à obtenir des contrats pourraient être contraints de recourir à des audits par des tiers pour certifier qu’ils respectent les normes internationales pertinentes en matière d’IA.
Dans le rapport, Brad Smith apporte également son soutien à une approche de l’IA qui sera «développée et utilisée au-delà des frontières» et qui «garantit qu’un système d’IA certifié comme sûr dans une juridiction peut également être qualifié de sûr dans une autre».
Il a comparé cette approche à celle de l’Organisation de l’aviation civile internationale, qui utilise des normes uniformes pour s’assurer qu’un avion n’a pas besoin d’être réaménagé en plein vol entre Bruxelles et New York pour répondre aux exigences variables de chaque pays.
Un code international aiderait les développeurs d’IA à attester de la sécurité de leurs systèmes et stimulerait la conformité à l’échelle mondiale, car ils seraient en mesure d’utiliser des normes internationalement reconnues.
«Le modèle d’un code volontaire offre au Canada, à l’Union européenne, aux États-Unis, aux autres membres du G7 ainsi qu’à l’Inde, au Brésil et à l’Indonésie la possibilité d’avancer ensemble sur la base d’un ensemble de valeurs et de principes communs», a-t-il précisé dans le rapport.
«Si nous pouvons travailler avec d’autres sur une base volontaire, nous avancerons tous plus vite et avec plus d’attention et de concentration. Ce n’est pas seulement une bonne nouvelle pour le monde de la technologie, mais pour le monde entier.»