Logo - Les Affaires
Logo - Les Affaires

L’IA fait le bonheur des fraudeurs

Olivier Schmouker|07 novembre 2023

L’IA fait le bonheur des fraudeurs

La podcasteuse canadienne Amber Mac (Photo: courtoisie)

CYBERSÉCURITÉ. En 2023, le Forum économique mondial a dressé la liste des 10 plus grands risques encourus par l’humanité d’ici les deux et les 10 prochaines années. À chaque fois, figure à la 8e place «la cybercriminalité et la cyberinsécurité généralisée». C’est que l’intelligence artificielle (IA) est en passe de devenir l’un des jouets préférés des cybercriminels, comme l’ont souligné des experts lors de la conférence de l’Association des examinateurs certifiés en fraude (ACFE), branche Canada, qui s’est tenue à la fin d’octobre au Palais des congrès de Montréal.

La podcasteuse canadienne Amber Mac a donné un exemple frappant : « Il suffit d’utiliser un logiciel de deepfake (hypertrucage) pour faire croire à s’y méprendre qu’un PDG a tourné dans un film pornographique, et salir sa réputation à tout jamais, à moins que la victime ne verse une rançon », a-t-elle illustré.
Autre exemple : un employé en télétravail peut faire croire qu’il travaille fort alors qu’en réalité il se tourne les pouces pendant que des IA effectuent ses tâches à sa place. Ainsi, Jasper.ai, un « ChatGPT sous stéroïde », peut écrire un texte à partir d’une poignée d’informations, en l’illustrant même avec des graphiques, des photos, voire des vidéos. Ou bien, Otter.ai peut, simplement en regardant le Zoom d’une visioconférence, en tirer un résumé écrit en un clin d’œil, tâche dont s’était chargé un employé en faisant croire que ça lui prendrait une heure ou deux.
« L’utilisation de l’IA devient frauduleuse dès lors que l’employé en profite pour faire autre chose, aux frais de l’employeur : regarder une série sur Netflix, travailler auprès d’un autre employeur, etc. », indique Karen Wensley, administratrice de sociétés, de Gore Mutual Insurance, à Cambridge, en Ontario. Et elle souligne : « Nous n’avons encore rien vu, dit-elle. L’IA est en train de repousser les limites de la fraude par-delà l’entendement ».
***

 

La podcasteuse canadienne Amber Mac a donné un exemple frappant: «Il suffit d’utiliser un logiciel de deepfake (hypertrucage) pour faire croire à s’y méprendre qu’un PDG a tourné dans un film pornographique, et salir sa réputation à tout jamais, à moins que la victime ne verse une rançon.»

Un employé en télétravail pourrait aussi faire croire qu’il travaille fort, alors qu’en réalité, il se tourne les pouces pendant que des IA effectuent ses tâches à sa place. Ainsi, Jasper.ai, un « ChatGPT sous stéroïde », peut écrire un texte à partir d’une poignée d’informations, en l’illustrant même avec des graphiques, des photos, voire des vidéos. Ou bien Otter.ai peut, simplement en regardant le Zoom d’une visioconférence, en tirer un résumé écrit en un clin d’œil, tâche dont s’était chargé un employé en faisant croire que ça lui prendrait une heure ou deux.

«L’utilisation de l’IA devient frauduleuse dès lors que l’employé en profite pour faire autre chose, aux frais de l’employeur: regarder une série sur Netflix, travailler auprès d’un autre employeur, etc.», indique Karen Wensley, administratrice de sociétés, de Gore Mutual Insurance, à Cambridge, en Ontario. « Nous n’avons encore rien vu, souligne-t-elle. L’IA est en train de repousser les limites de la fraude par-delà l’entendement ».

Karen Wensley (Photo: courtoisie)

 

Abonnez-vous à notre infolettre thématique pour du contenu qui répond à votre réalité:

Techno – Tous les lundis

Retrouvez les conseils de nos experts en cybersécurité, des analyses sur les cryptomonnaies, et les dernières actualités sur les innovations technologiques.