Logo - Les Affaires
Logo - Les Affaires

ChatGPT, le beurre d’arachide et la bible

Dominique Talbot|Publié le 19 mai 2023

ChatGPT, le beurre d’arachide et la bible

Pour les entreprises qui souhaitent miser sur cette nouvelle technologie, la prudence est de mise, prévient M. Pinto. Il faut d’abord «bien comprendre les forces, les limites et les faiblesses de ces modèles.» (Photo: Emiliano Vittoriosi pour Unsplash)

Seriez-vous capable, dans un style d’écriture biblique, de raconter l’histoire d’une tartine de beurre d’arachide coincée dans un magnétoscope? En moins d’une minute? Comme l’auteur de ces lignes, probablement que non. Mais ChatGPT, oui.

Évidemment, l’agent conversationnel d’Open AI est connu pour accomplir des tâches bien plus complexes et moins ludiques que de rédiger ce genre d’histoire. Surtout plus controversées. Ce n’est pas pour rien qu’il est au centre d’autant de débats depuis les derniers mois.

Fait-il peur? «C’est sûr qu’il y a une énorme curiosité et une certaine peur aussi parce que les gens ne comprennent pas qu’est-ce que cette technologie-là. […] Avec toute nouvelle technologie vient toujours une forme d’appréhension. Mais il y a aussi une excitation qui est palpable», exprime Jeremy Pinto, scientifique en recherche appliquée sénior au Mila, l’Institut québécois d’intelligence artificielle.

M. Pinto a capté l’attention d’un large auditoire mercredi au cours de sa conférence Démystifier ChatGPT: applications et enjeux, donnée dans le cadre de Connexion, le salon de la transformation numérique.

Quand on demande à l’expert quelles sont les principales forces de ChatGPT, par surprenant qu’il réponde que la rédaction en fait partie. «Mais aussi le “brainstorming” et la synthèse, ajoute M. Pinto. Quand un donne un texte à ChatGPT et on lui demande de le résumer, on voit que le modèle est quand même assez fort. […] Pour les connaissances générales aussi.»

Bien des forces, donc, mais aussi beaucoup de faiblesses.

«Il faut être prudent. Par exemple, si on commence à pousser [à propos] d’un sujet scientifique où on a une certaine expertise, on se rend compte très rapidement que ces modèles-là ont une limite dans leurs connaissances», affirme M. Pinto.

«Une autre grosse faiblesse est qu’ils ne savent pas qu’ils ne savent pas. Donc, souvent, ils vont halluciner n’importe quoi, ils vont nous inventer certaines réponses pour plaire à l’humain. […] Ces modèles ont été développés pour prédire le prochain mot. Donc ils n’ont aucune idée de l’incertitude derrière leurs réponses.»

Prudence pour les entreprises

Pour les entreprises qui souhaitent miser sur cette nouvelle technologie, la prudence est de mise, prévient M. Pinto. Il faut d’abord «bien comprendre les forces, les limites et les faiblesses de ces modèles.»

«Il pourrait y avoir une grosse contribution pour rédiger du texte. Surtout du texte que l’on rédige fréquemment. […] Donc pour optimiser certains processus. Il n’en demeure pas moins que pour des entreprises, il est important de ne pas faire confiance qu’à ces modèles-là. Dans mes présentations, j’essaie de démontrer qu’ils se trompent souvent», tempère le scientifique.

De nombreux enjeux

Tant pour les individus que les entreprises, la prudence est donc de mise. Pas pour rien que plus d’un millier d’experts de partout dans le monde, dont Yoshua Bengio, directeur scientifique et Fondateur de Mila, ont récemment milité pour une pause de six mois dans la recherche.

Pour le moment, les enjeux semblent d’ailleurs plus nombreux que les bienfaits de ChatGPT. Ou du moins, bien plus importants.

D’abord, dit Jérémy Pinto, «plus les gens vont faire confiance à cet engin-là, plus on peut s’attendre à ce que les réponses que nous trouvons sur le web soient générées par l’intelligence artificielle et ne viennent pas nécessairement d’un humain.»

Ensuite, enchaîne-t-il, la facilité avec laquelle l’agent conversationnel peut générer de fausses informations est préoccupante. «L’accès à ces modèles est contrôlé par de grandes entités. Pour le moment, c’est Open AI, mais il se pourrait que ce soit d’autres compagnies par la suite qui contrôlent ces narratifs, vers où ces modèles peuvent aller ou ne pas aller. C’est une inquiétude.»

Autrement dit, plus que jamais, la question de la transparence suscite autant de craintes que de questionnements. «Est-ce qu’on veut de plus en plus démocratiser l’accès à ces modèles-là? Est-ce qu’on veut plus de transparence sur la façon dont ils fonctionnent, demande Jérémy Pinto? En ce moment il y a de moins en moins de transparence et pour moi, c’est un gros enjeu.»

 

Écoutez notre entrevue avec Jeremy Pinto, scientifique en recherche appliquée sénior chez Mila, l’Institut québécois d’intelligence artificielle, en direct de la sixième édition de Connexion, le salon de la transformation numérique: