Logo - Les Affaires
Logo - Les Affaires

Une IA peut-elle commettre un crime financier?

Olivier Schmouker|Publié le 10 août 2023

Une IA peut-elle commettre un crime financier?

Une étude indique qu'un tel scénario catastrophe est susceptible de se produire de manière «imminente». (Photo: Shahadat Rahman pour Unsplash)

MAUDITE JOB! est la rubrique d’Olivier Schmouker qui répond à vos interrogations les plus croustillantes (et les plus pertinentes) sur le monde du travail et ses travers. Un rendez-vous à lire les mardis et les jeudisVous avez envie de participer? Envoyez-nous votre question à mauditejob@groupecontex.ca

Q. — «Je travaille pour le service comptable d’une grande entreprise et notre tout nouveau collègue est… une intelligence artificielle (IA). Je dois reconnaître que ses capacités sont phénoménales et qu’elle peut nous être d’une grande utilité dans de nombreux domaines. Mais je m’interroge: comme il ne s’agit que d’un robot, elle n’a pas de sens moral et pourrait donc, croyant bien faire, commettre en vérité un crime financier. Est-ce là de la science-fiction à la “Black Mirror”, ou une réelle possibilité?» Étienne

R. — Cher Étienne, votre interrogation est à la fois judicieuse et pertinente. J’en veux pour preuve une étude récente sur le sujet que vous abordez, signée par Aslihan Asil, doctorante en économie de la finance à Yale, et Thomas Wollmann, professeur d’économie à l’Université de Chicago. Regardons ça ensemble.

Les deux chercheurs ont noté que les intelligences artificielles (IA) avaient de plus en plus les coudées franches au sein des entreprises qui font appel à leurs services, en particulier dans le domaine de la finance et de la comptabilité. Le principe est simple: l’entreprise constate que l’IA est en mesure de réaliser mille et une prouesses, à la vitesse de l’éclair et sans faire d’erreur . Elle lui demande alors de résoudre des problèmes de plus en plus complexes, et constate que la performance est toujours au rendez-vous ; elle va alors jusqu’à lui demander de trouver des idées inédites afin d’améliorer davantage la performance financière de l’entreprise. Et c’est là que le danger pointe le bout de son nez…

L’étude considère un scénario fictif:

— L’IA se voit confier la mission de booster la profitabilité de l’entreprise.

— Elle contacte le dirigeant chargé des finances de la principale entreprise concurrente, et lui propose d’ajuster leurs prix.

— Le dirigeant accepte la proposition, et les prix augmentent d’un poil, histoire de ne pas attirer l’attention.

— Cela fait l’affaire des deux entreprises concernées (mais, il est vrai, pas celle des consommateurs).

Mission accomplie? Selon l’IA, sûrement. Mais selon la loi, aucunement, car il s’agit là d’un acte de collusion.

D’où l’interrogation des deux chercheurs: dans un tel cas de figure, s’agit-il d’un crime en vertu des lois antitrust américaines et, si oui, qui peut en être tenu responsable? Après analyse, ils en arrivent à la conclusion que «ce comportement enfreindrait la première section de la loi de Sherman», qui prohibe les ententes illicites visant à restreindre les échanges et le commerce, et donc que «la collusion serait avérée». Par conséquent, les deux entreprises pourraient être reconnues pénalement coupables, tout comme le dirigeant de l’entreprise concurrente qui a accepté l’accord proposé par l’IA.

Ce n’est pas tout. Mme Asil et M. Wollmann soulignent dans leur étude que leur scénario fictif devrait se produire dans la réalité de manière imminente. Les entreprises confient de plus en plus de responsabilités aux IA, sans pour autant mettre en place tous les contrôles nécessaires pour s’assurer que les actions entreprises par celles-ci sont, entre autres, conformes à la loi. Surtout en matière de finance et de comptabilité.

À cela s’ajoute un autre point: et si, dans le scénario proposé, l’IA ne contactait pas un être humain d’une entreprise concurrente, mais l’IA de celle-ci chargée, elle aussi, de booster la profitabilité? Les deux IA pourraient s’entendre en un clin d’œil et concocter tout un plan d’ajustement des prix échelonné dans le temps afin que cela soit quasiment indiscernable. Et cela mettrait les deux entreprises dans l’illégalité, sans qu’elles en aient conscience ; ce qui ne les empêcherait pas d’être lourdement condamnées si jamais cela finissait par se savoir.

Bref, Étienne, vous avez mis au jour un angle mort dans l’avènement actuel de l’IA. Les robots à qui l’on confie des missions financières et comptables peuvent très bien commettre des crimes dont des êtres humains devraient répondre. Et cela serait même sur le point de se produire, si l’on en croit les deux chercheurs de Yale et de l’Université de Chicago.

Croisons les doigts pour que cela ne se produise pas chez vous. À tout le moins, pas d’ici à ce que vous vous dotiez de mesures de contrôle serrées à l’égard de votre nouvelle collègue..

En passant, l’écrivain français Georges Bernanos a dit dans La France contre les robots: «Un monde gagné pour la technique est perdu pour la liberté».