Logo - Les Affaires
Logo - Les Affaires

La guerre informationnelle dopée à l’intelligence artificielle

AFP|07 juin 2024

La guerre informationnelle dopée à l’intelligence artificielle

OpenAI, le créateur de ChatGPT, avait indiqué fin mai que des groupes d’influence russes, chinois, iranien ainsi qu’une «entreprise commerciale en Israël» avaient utilisé ses programmes pour tenter de manipuler l’opinion d’autres pays.(Photo: 123RF)

Des millions de messages en quelques heures, de fausses discussions sur des forums: l’intelligence artificielle permet aux infox et aux opérations d’ingérence étrangère de démultiplier encore davantage leur impact à moindre coût, alertent les experts.

À l’approche des élections européennes dimanche, «il y a une massification générale» de ces contenus venus de l’étranger et l’IA «est une nouvelle étape dans la chaîne d’automatisation de ces publications (qui) permet d’(en) massifier la production», pointe auprès de l’AFP Valentin Châtelet, du laboratoire d’analyse numérique de l’Atlantic Council (DFRLab).

Selon les données, analysées par l’AFP, du collectif Antibot4Navalny qui traque les opérations d’influence numérique en lien avec la Russie, des milliers de bots (comptes automatiques), sont utilisés quotidiennement par la propagande pro-russe sur X.

Dans la foulée de la tuerie du Crocus City Hall près de Moscou le 22 mars, le collectif a compté plus de deux millions de messages sur X en moins de 24 heures, accusant l’Ukraine et l’Occident d’avoir facilité l’attaque ainsi que la fuite des assaillants, une thèse similaire à celle développée, dans un premier temps, par les autorités russes.

«Pendant la durée de chaque épisode (événement d’importance planétaire, NLDR), le fonctionnement quotidien régulier est interrompu: tous les bots (…) sont entièrement dédiés à l’épisode en question», a observé Antibot4Navalny.

 

ChatGPT

OpenAI, le créateur de ChatGPT, avait indiqué fin mai que des groupes d’influence russes, chinois, iranien ainsi qu’une «entreprise commerciale en Israël» avaient utilisé ses programmes pour tenter de manipuler l’opinion d’autres pays.

Les contenus fabriqués traitaient d’une «large palette de sujets, notamment l’invasion de l’Ukraine par la Russie, le conflit à Gaza, les élections indiennes, la politique européenne et américaine ainsi que des critiques du gouvernement chinois par des dissidents.»

L’IA ne sert pas nécessairement à produire des contenus sophistiqués, comme des vidéos type «deepfake», de fausses photos ou de faux audios: selon OpenAI, le système a été utilisé pour générer «principalement du texte, parfois des images, tels que des dessins» satiriques.

Elle permet aussi de «simuler de l’engagement» sur les réseaux et «gagner en productivité», note OpenAI.

L’IA peut, par exemple, servir à traduire un faux article en de nombreuses langues puis à le poster automatiquement sur une multitude de comptes et de sites.

Selon Antibot4Navalny, l’IA permet aussi d’éviter aux bots d’être repérés par la modération des réseaux sociaux en multipliant les messages dont le fond est similaire mais pas tout à fait identiques (formulations différentes, etc.).

Et les contenus sont divers: faux articles, faux graffitis, faux reportages… Ces bots peuvent aussi relayer massivement de vrais articles de presse mais en les accompagnant de messages politiques, comme «le RN est la (sic) parti de la paix, contrairement à Macron qui cherche à attiser la guerre» ou que «c’est une honte de voir nos dirigeants gaspiller l’argent du peuple pour des jeux (olympiques)!».

«En tant qu’utilisateur, vous pouvez avoir l’impression que ces points de vue sont massivement soutenus par des gens basés en France alors que ce n’est pas forcément le cas», relève Alexandre Alaphilippe, directeur exécutif de l’ONG européenne EU DisinfoLab.

«Vous pouvez aller sur un forum, voir des gens qui se parlent entre eux mais en réalité toute cette conversation a été générée par intelligence artificielle (IA)», poursuit le spécialiste.

La Russie est considérée comme le pays le plus actif en termes d’ingérence étrangère via Internet par les experts et les services de renseignements et gouvernements occidentaux même si d’autres pays, comme l’Azerbaïdjan, l’Iran ou la Chine sont aussi pointés du doigt.

Ces derniers mois, ont été mises au jour plusieurs opérations, comme Doppelgänger (imitation de médias occidentaux pour diffuser des infox), Matriochka (interpellation directe de médias pour les inciter à vérifier des infox), ou Olympiya, visant les JO.

 

Long terme

Pour Alexandre Alaphilippe, ces opérations ne «vont pas s’arrêter le 9 juin» puisqu’elles «sont conçues pour tenir dans la durée».

L’élection présidentielle américaine, qui se déroulera le 5 novembre, sera aussi un enjeu crucial. Selon les données d’Antibot4Navalny, fin mai 2024, en plein procès de l’ancien président et futur candidat Donald Trump, au moins deux millions de messages critiquant la politique de Joe Biden, l’actuel président candidat à sa réélection, ont été publiés sur le réseau social X par des bots.

«Ce qui rend ces élections – et celles à venir aux États-Unis – uniques, c’est qu’elles surviennent à un moment où il est dans l’intérêt stratégique de la Russie d’affaiblir le soutien occidental à l’Ukraine», indique John Kennedy, chercheur en défense et sécurité à l’institut de recherche Rand.