Comment l’Europe mène le monde pour réglementer l’IA
La Presse Canadienne|Édition de la mi‑octobre 2022(Photo: 123RF)
LONDRES — Alors que les autorités du monde entier s’efforcent de maîtriser l’intelligence artificielle (IA), une législation novatrice de l’Union européenne (UE) a franchi un obstacle majeur mercredi.
Les députés du Parlement européen ont voté en faveur de la proposition, qui est sur le point d’être adoptée. Il s’agirait du premier ensemble de règles exhaustives au monde concernant cette technologie, qui pourrait servir de modèle à d’autres pays travaillant à l’élaboration de réglementations similaires.
Les efforts déployés depuis des années par Bruxelles pour établir des garde−fous pour l’IA sont devenus plus urgents à mesure que les progrès rapides des robots conversationnels tels que ChatGPT montrent les avantages que la technologie émergente peut apporter et les nouveaux dangers qu’elle pose.
Voici un aperçu de la loi sur l’intelligence artificielle de l’UE :
Comment fonctionnent les règles?
La mesure, proposée pour la première fois en 2021, régira tout produit ou service utilisant un système d’intelligence artificielle. La loi classera les systèmes d’IA selon quatre niveaux de risque, de minime à inacceptable.
Les applications plus risquées, telles que l’embauche ou la technologie destinée aux enfants, seront confrontées à des exigences plus strictes, notamment en étant plus transparentes et en utilisant des données précises.
Les violations entraîneront des amendes pouvant aller jusqu’à 30 millions d’euros (43 millions $) ou 6% du chiffre d’affaires mondial annuel d’une entreprise, ce qui, dans le cas d’entreprises technologiques comme Google et Microsoft, pourrait s’élever à des milliards.
Il appartiendra aux 27 États membres de l’UE de faire respecter les règles.
Quels sont les risques?
L’un des principaux objectifs de l’UE est de se prémunir contre toute menace de l’IA pour la santé et la sécurité et de protéger les droits et valeurs fondamentaux.
Cela signifie que certaines utilisations de l’IA sont un interdit absolu, comme les systèmes de «notation sociale» qui jugent les gens en fonction de leur comportement.
Est également interdite l’IA qui exploite les personnes vulnérables, y compris les enfants, ou utilise une manipulation subliminale pouvant entraîner des dommages, par exemple, un jouet interactif parlant qui encourage un comportement dangereux.
Les outils de police prédictive, qui analysent les données afin de prévoir qui commettra des délits, sont également à l’ordre du jour.
Les députés ont renforcé la proposition initiale de la Commission européenne, la branche exécutive de l’UE, en élargissant l’interdiction de la reconnaissance faciale à distance et de l’identification biométrique en public. La technologie scanne les passants et utilise l’IA pour faire correspondre leurs visages ou d’autres traits physiques à une base de données.
Mais il fait face à un défi de dernière minute après qu’un parti de centre−droit a ajouté un amendement autorisant des exceptions en matière d’application de la loi telles que la recherche d’enfants disparus, l’identification de suspects impliqués dans des crimes graves ou la prévention de menaces terroristes.
«Nous ne voulons pas de surveillance de masse, nous ne voulons pas de notation sociale, nous ne voulons pas de police prédictive dans l’Union européenne, point final. C’est ce que fait la Chine, pas nous», a déclaré mardi Dragos Tudorache, un membre roumain du Parlement européen qui codirige ses travaux sur la loi sur l’IA.
Les systèmes d’IA utilisés dans des catégories telles que l’emploi et l’éducation, qui affecteraient le cours de la vie d’une personne, sont confrontés à des exigences strictes telles que la transparence avec les utilisateurs et la prise de mesures pour évaluer et réduire les risques de biais des algorithmes.
La plupart des systèmes d’IA, tels que les jeux vidéo ou les filtres anti−spam, entrent dans la catégorie à faible ou sans risque, selon la commission.
Qu’en est-il de ChatGPT?
La mesure originale mentionnait à peine les robots conversationnels, principalement en exigeant qu’ils soient étiquetés afin que les utilisateurs sachent qu’ils interagissent avec une machine. Les négociateurs ont ensuite ajouté des dispositions pour couvrir l’IA à usage général comme ChatGPT après qu’elle ait explosé en popularité, soumettant cette technologie à certaines des mêmes exigences que les systèmes à haut risque.
Un ajout clé est l’exigence de documenter en profondeur tout matériel protégé par le droit d’auteur utilisé pour enseigner aux systèmes d’IA comment générer du texte, des images, des vidéos et de la musique qui ressemblent au travail humain.
Cela permettrait aux créateurs de contenu de savoir si leurs articles de blogue, livres numériques, articles scientifiques ou chansons ont été utilisés pour former des algorithmes qui alimentent des systèmes comme ChatGPT. Ensuite, ils pourraient décider si leur travail a été copié et demander réparation.
Pourquoi les règles de l’UE sont-elles si importantes?
L’Union européenne n’est pas un acteur important dans le développement de l’IA de pointe. Ce rôle est joué par les États−Unis et la Chine. Mais Bruxelles joue souvent un rôle de précurseur avec des réglementations qui tendent à devenir de facto des normes mondiales et est devenue un pionnier dans les efforts visant à cibler le pouvoir des grandes entreprises technologiques.
Selon les experts, la taille du marché unique de l’UE, avec 450 millions de consommateurs, permet aux entreprises de se conformer plus facilement que de développer différents produits pour différentes régions.
Mais ce n’est pas qu’une répression. En établissant des règles communes pour l’IA, Bruxelles tente également de développer le marché en instaurant la confiance des utilisateurs.
«Le fait qu’il s’agisse d’une réglementation qui peut être appliquée et que les entreprises seront tenues pour responsables est significatif», car d’autres endroits comme les États−Unis, Singapour et la Grande−Bretagne ont simplement offert «des conseils et des recommandations», a rappelé Kris Shrishak, technologue et chercheur principal au Conseil irlandais pour les libertés civiles.
«D’autres pays pourraient vouloir adapter et copier» les règles de l’UE, a-t-il ajouté.
D’autres jouent au rattrapage. La Grande−Bretagne, qui a quitté l’UE en 2020, se bat pour obtenir un rôle de premier plan en IA. Le premier ministre Rishi Sunak prévoit d’organiser cet automne un sommet mondial sur la sécurité de l’IA.
«Je veux faire du Royaume−Uni non seulement le foyer intellectuel, mais aussi le foyer géographique de la réglementation mondiale sur la sécurité de l’IA», a déclaré M. Sunak lors d’une conférence technique cette semaine.
Le sommet britannique réunira des personnes «du milieu universitaire, des entreprises et des gouvernements du monde entier» pour travailler sur «un cadre multilatéral», a-t-il déclaré.
Et après?
Il pourrait s’écouler des années avant que les règles ne prennent pleinement effet. Le vote sera suivi de négociations impliquant les pays membres, le Parlement et la Commission européenne, éventuellement confrontés à d’autres changements alors qu’ils tentent de s’entendre sur le libellé.
L’approbation finale est attendue d’ici la fin de cette année, suivie d’une période de grâce pour que les entreprises et les organisations s’adaptent, souvent autour de deux ans.
Pour combler le vide avant que la législation n’entre en vigueur, l’Europe et les États−Unis élaborent un code de conduite volontaire que les responsables ont promis fin mai serait rédigé dans quelques semaines et pourrait être étendu à d’autres «pays partageant les mêmes idées».