Logo - Les Affaires
Logo - Les Affaires

Élections: OpenAI va lancer des outils contre la désinformation

AFP|Publié le 16 janvier 2024

Élections: OpenAI va lancer des outils contre la désinformation

Le succès de l'application ChatGPT a popularisé l'intelligence artificielle générative, mais également suscité des inquiétudes sur son utilisation éventuelle dans des campagnes de désinformation visant à orienter le vote des électeurs. (Photo: 123RF)

La société californienne OpenAI, créatrice de ChatGPT, a annoncé le lancement d’outils pour combattre la désinformation avant les dizaines de scrutins prévus cette année dans divers pays où vit presque la moitié de la population mondiale.

Le succès de l’application ChatGPT a popularisé l’intelligence artificielle générative, mais également suscité des inquiétudes sur son utilisation éventuelle dans des campagnes de désinformation visant à orienter le vote des électeurs.

Alors que des dizaines d’élections sont prévues cette année, en particulier aux États-Unis, en Inde ou en Grande-Bretagne, OpenAI a souligné lundi sa volonté de ne pas permettre l’utilisation de ses outils technologiques, dont ChatGPT et le générateur d’images DALL-E 3, à des fins politiques.

«Nous voulons être certains que notre technologie ne sera pas utilisée de manière à porter atteinte» au processus démocratique, explique OpenAI sur un blogue.

«Nous sommes toujours en train d’évaluer l’efficacité potentielle de nos outils pour de la persuasion individuelle. Jusqu’à ce que nous en sachions plus, nous ne permettrons pas aux gens de construire des applications pour des campagnes politiques ou militantes», ajoute OpenAI.

La désinformation (une fausse information diffusée volontairement) et la mésinformation (une information fausse diffusée involontairement) utilisant l’IA pourraient «miner la légitimité des gouvernements nouvellement élus», a averti la semaine dernière le Forum économique mondial, qui se tient jusqu’au 19 janvier à Davos, en Suisse.

Les craintes de désinformation électorale remontent à plusieurs années, mais l’accès du grand public aux puissants générateurs de textes et d’images fondés sur l’IA renforce grandement la menace, selon les experts.

OpenAI a expliqué lundi travailler à des outils permettant de déterminer de manière fiable la provenance d’un texte généré par ChatGPT et de donner aux utilisateurs la possibilité de détecter si une image a été créée en utilisant DALL-E 3.

«Au début de cette année, nous allons mettre en oeuvre la Coalition pour la provenance et l’authenticité des contenus (Coalition for Content Provenance and Authenticity’s digital credentials)», explique la compagnie.

Cette coalition, dite C2PA, réunira notamment Microsoft, Sony, Adobe, Nikon et Canon.

Selon OpenAI, ChatGPT, lorsqu’il sera interrogé sur les élections américaines, orientera par exemple les électeurs vers des sites reconnus.

«Les leçons tirées de ce travail seront la base de notre approche pour d’autres pays et régions», explique la société, ajoutant que DALL-E 3 contient des «garde-fous» pour empêcher les utilisateurs de générer des images de personnes réelles, notamment de candidats.

Les géants américains Google et Meta ont déjà annoncé l’an dernier des initiatives pour cadrer l’utilisation de l’IA dans les campagnes politiques.