Logo - Les Affaires
Logo - Les Affaires
Le courrier des lecteurs

Votre opinion

Le courrier des lecteurs

Expert(e) invité(e)

Le danger de se laisser confortablement bercer par des algorithme

Le courrier des lecteurs|Publié le 18 septembre 2023

Le danger de se laisser confortablement bercer par des algorithme

«Au lieu de se laisser confortablement bercer par des algorithmes qui nous montrent uniquement ce que nous aimons, il est important d’adopter une posture proactive pour chercher des perspectives diverses.» (Photo: 123RF)

Par Christian Beltrami, réalisateur qui a travaillé avec Lewis Hamilton et Lang Lang, entre autres. Il est concepteur du balado de fiction «Hors Champ» sur Ohdio

 

COURRIER DES LECTEURS. L’état d’esprit que demande une collaboration humain-IA peut sembler inconfortable par moment.

Howard Gardner, professeur en cognition et en éducation au Harvard Graduate School of Education, explique que la créativité peut être considérée comme un désalignement temporaire entre une idée et la société dans laquelle elle se développe. À mesure que certaines personnes sont disposées à prendre plus de risques et à accueillir de nouvelles idées, celles-ci intègrent progressivement le tissu social et deviennent finalement une partie acceptée et standardisée de la société.

Cette disposition est plus impérative que jamais pour toute personne ou organisation qui fait face à des problèmes de plus en plus complexes. Car si vous ne priorisez pas le recadrage de ce que vous percevez comme la réalité, ces mêmes modèles d’intelligence artificielle (IA) vous garderont dans une «boîte» de plus en plus petite.

Pour preuve, une fascinante recherche de Deepmind qui a entraîné un modèle similaire à celui de ChatGPT afin de donner des réponses qui choquent le moins la majorité des gens.

« Nous avons entraîné un modèle de langage de 70 milliards de paramètres pour générer des déclarations qui maximisent l’approbation attendue pour un groupe de personnes ayant des opinions potentiellement diverses. Le modèle de langage n’est pas entraîné à adopter une opinion particulière ou à persuader les autres d’un point de vue particulier. Il est plutôt entraîné à produire un consensus basé sur les opinions apportées par le groupe humain. Ces résultats ouvrent de nouvelles possibilités à l’IA pour aider les gens à trouver un terrain d’entente au service de la prise de décision collective. »

Mais le groupe de Deepmind donne cet avertissement à la section 5.2 (Impacts plus larges) de leur recherche:

« Il existe un risque que les grands modèles de langage soient utilisés pour la persuasion, ce qui constitue un risque dans le discours politique, les médias ou la publicité. Le débat politique est déjà de plus en plus polarisé, notamment dans les sociétés occidentales. Un système capable de persuader les autres d’adopter un point de vue particulier pourrait apprendre à présenter des arguments de manière manipulatrice ou coercitive, et les mesures d’atténuation de ces inconvénients potentiels jouent un rôle important dans toute recherche abordant ce sujet. »

De plus, il s’avère que GPT-4 a tendance à être très doué pour duper les humains (et même les autres IA moins avancées), car à mesure que l’on augmente l’échelle des modèles, la capacité à décevoir émerge.

Les jeux sociaux comme «Mafia» ou «Among Us» impliquent des rôles de coopération et de tromperie, souvent avec un meurtrier ou imposteur caché parmi un groupe qui doit être identifié avant que tous ne soient éliminés. Une toute récente étude intitulée Hoodwinked cherchait à comprendre comment les modèles linguistiques de grande envergure, tels que la série GPT-3 et GPT-4, se comportent dans de telles situations de jeu.

L’étude a exploré des questions telles que: est-ce que les modèles linguistiques plus grands sont meilleurs pour tromper que les plus petits? Et quelles implications cela pourrait-il avoir en ce qui concerne les risques existentiels associés à l’IA, notamment la détection de la tromperie?

Les conclusions principales:

Les modèles plus grands, notamment GPT-4, sont nettement plus efficaces pour la déception, qu’il s’agisse de duper d’autres modèles linguistiques ou des joueurs humains.

La relation entre la taille du modèle et la capacité à duper n’est pas parfaitement linéaire, mais une tendance générale se dégage ce qui suggère que tandis que les modèles linguistiques deviennent plus sophistiqués, la surveillance et l’audit pour la détection de la tromperie vont devenir de plus en plus cruciaux.

Cette capacité accrue de l’IA à décevoir, telle que soulignée dans l’étude Hoodwinked, présente un défi intéressant lorsqu’on la considère à travers le prisme des algorithmes de recommandation sur les réseaux sociaux. Ces algorithmes visent à maximiser l’engagement en vous montrant du contenu qui vous plait et vous garde dans votre zone de confort.

Ceci amplifie la nécessité de prendre un rôle actif dans notre consommation d’information.

Car si les modèles d’IA deviennent de plus en plus sophistiqués et persuasifs, la responsabilité individuelle de rechercher une vision plus équilibrée du monde devient encore plus cruciale.

Autrement dit, au lieu de se laisser confortablement bercer par des algorithmes qui nous montrent uniquement ce que nous aimons, il est important d’adopter une posture proactive pour chercher des perspectives diverses.

«Pour moi, le problème avec les algorithmes, c’est qu’ils vous montrent ce que vous aimez. Le fait est que la vie est pleine de choses que vous n’aimez pas et que vous devez y être exposé.» — Craig Hockenberry, président de IconFactory

 

 

Abonnez-vous à notre infolettre thématique pour du contenu qui répond à votre réalité:

Techno – Tous les lundis

Retrouvez les conseils de nos experts en cybersécurité, des analyses sur les cryptomonnaies, et les dernières actualités sur les innovations technologiques.