Logo - Les Affaires
Logo - Les Affaires

OpenAI s’inquiète que la voix de son IA séduise les utilisateurs

AFP|Publié le 09 août 2024

OpenAI s’inquiète que la voix de son IA séduise les utilisateurs

«Anthropomorphisme consiste à attribuer des attitudes ou caractéristiques humaines à quelque chose qui ne l’est pas, tel qu’un modèle d’IA», a souligné l’entreprise dans un rapport publié jeudi. (Photo: 123RF)

San Francisco — OpenAI, l’entreprise qui a lancé l’intelligence artificielle (IA) générative ChatGPT, s’est inquiétée qu’une voix réaliste à son logiciel puisse pousser les utilisateurs à créer des liens avec, au détriment d’interactions humaines.

«Anthropomorphisme consiste à attribuer des attitudes ou caractéristiques humaines à quelque chose qui ne l’est pas, tel qu’un modèle d’IA», a souligné l’entreprise dans un rapport publié jeudi.

«Le risque peut être renforcé par les fonctions audio de GPT-4à, qui facilite des interactions ressemblant à celles avec des humains», pointe le rapport.

Le document a été publié la veille du lancement de la nouvelle version de ChatGPT, GPT-4o, qui intègre la possibilité pour le logiciel de répondre vocalement et permettre d’avoir l’équivalent d’une conversation avec.

Mais avoir avec une IA le même type de conversation que celles possibles avec un humain pourrait créer une «confiance mal placée» dans le logiciel, que la voix ajoutée à ce dernier pourrait renforcer.

OpenAI souligne notamment avoir pu constater chez des testeurs de la nouvelle version des échanges avec l’IA qui semblaient montrer la création d’un lien affectif, comme l’expression du regret que ce soit leur dernier jour ensemble.

«Certes ces cas semblent sans conséquence, mais ils mettent en avant la nécessité de poursuivre les recherches sur la manière dont ces effets pourraient se manifester à plus long terme», conclut le rapport.

Entrer dans une forme de rapport de socialisation avec l’IA pourrait par ailleurs inciter les utilisateurs à réduire leur envie d’avoir des relations avec des humains, anticipe OpenAI.

«Des échanges prolongés avec le modèle pourraient avoir un effet sur les normes sociales. Par exemple, nos modèles sont toujours respectueux, laissant les utilisateurs leur couper la parole à tout moment, un comportement qui, s’il est normal pour une IA, pourrait être hors des normes des interactions sociales», détaille le rapport.

Succédané

La capacité de l’IA à garder en mémoire des détails des conversations et à assurer les missions qui lui sont données pourrait également amener les utilisateurs à trop se reposer sur la technologie.

«Ces nouvelles inquiétudes partagées par OpenAI sur le risque de dépendance potentielle à la voix de ChatGPT soulignent à quel point la question qui monte est la suivante: faut-il prendre le temps et chercher à comprendre comment la technologie vient affecter les interactions et relations humaines?», a estimé Alon Yamin, cofondateur et directeur général de Copyleaks, une plateforme de détection du plagiat par l’IA.

«L’IA est une technologie complémentaire, envisagée pour nous aider à rationaliser notre travail et notre vie quotidienne, il ne faut pas qu’elle devienne un succédané de véritables relations humaines», a-t-il ajouté.

OpenAI a assuré poursuivre l’étude sur la manière dont la fonction vocale de son IA pourrait amener des utilisateurs à s’y attacher émotionnellement.

Les testeurs ont également réussi à la faire reprendre de fausses informations ou à créer des théories du complot, ajoutant des inquiétudes quant aux risques potentiels du modèle d’IA.

La fonction vocale de Chat-GPT a d’ores et déjà suscité de nombreuses réactions et forcé OpenAI à présenter des excuses à l’actrice Scarlett Johansson en juin dernier, pour avoir utilisé une voix très proche de la sienne, créant une polémique sur le risque lié à la copie des voix grâce à la technologie.

Si l’entreprise a nié avoir utilisé la voix de Mme Johansson, le fait que son patron, Sam Altman, l’a mis en avant la fonction vocale sur les réseaux sociaux en utilisant un seul mot, «Her», en référence au film où l’actrice incarne justement une IA ne l’a pas aidé à emporter la conviction des observateurs.

Le film, sorti en 2013, raconte précisément l’histoire d’un homme, joué l’acteur Joaquin Phoenix, tombant amoureux de son IA personnelle, «Samantha», pour laquelle Scarlett Johansson a prêté sa voix.