Avant d’implanter un nouvel outil technologique, la dirigeante de l’Ordre des CRHA recommande aux gestionnaires des ressources humaines de poser plusieurs questions, autant sur la rigueur du logiciel convoité que sur les conséquences que celui-ci pourrait avoir sur ses employés. (Photo: 123RF)
L’année 2024 sera marquée par l’utilisation plus importante de l’intelligence artificielle (IA) générative au sein des organisations, qu’elles le veuillent ou non, selon Sandra Houillier, directrice de service au sein du groupe de Capital humain et leader de la pratique de transformation des RH et de l’expérience employé chez Deloitte. Spécialistes en ressources humaines, vous avez un rôle capital à jouer pour une intégration réussie.
C’est du moins ce que laissent entendre plusieurs experts, dont Alina N. Stamate, professeure au Département d’organisation et des ressources humaines à l’ESG UQAM.
« L’intégration de l’IA dans les entreprises n’est pas seulement une question technique ; cela concerne également les personnes et l’organisation, explique-t-elle en entrevue avec Les Affaires. Il ne suffit pas de créer et de mettre en œuvre des systèmes d’IA efficaces ; il faut également s’assurer qu’ils répondent aux besoins, aux attentes et aux valeurs des employés et de l’entreprise. »
La directrice générale de l’Ordre des conseillers en ressources humaines agréés (CRHA), Manon Poirier, abonde dans le même sens. Les personnes qui occupent une telle fonction au sein des entreprises sont censées être outillées afin de repérer quelles seront les conséquences de l’adoption de l’IA sur le personnel, et si son usage est éthique, estime-t-elle.
Selon l’avocate de formation, ce dernier point est toutefois « une responsabilité partagée, mais les gens des RH ont toujours eu ce regard-là sur l’adéquation administrative. C’est une continuité naturelle de leur rôle que de poser des questions éthiques […], donc on peut transposer ces compétences-là pour analyser les technologies » que l’entreprise souhaite adopter.
Aussi bénéfique pour la productivité l’IA puisse-t-elle être, son utilisation comporte des risques, rappelle Alina N. Stamate. Elle peut par exemple perpétrer des biais discriminatoires. « Cela signifie que ces systèmes doivent être développés et utilisés de manière à respecter les principes éthiques fondamentaux tels que la justice, l’équité, la transparence, le respect de la vie privée et de la dignité des individus. »
Des questions à poser
Avant d’implanter un nouvel outil technologique, la dirigeante de l’Ordre des CRHA recommande aux gestionnaires des ressources humaines de poser plusieurs questions, autant sur la rigueur du logiciel convoité que sur les conséquences que celui-ci pourrait avoir sur ses employés. Les aptitudes de certaines personnes pourraient par exemple vite devenir désuètes.
« Elle est finie l’époque où on pouvait tout simplement mettre à pied et réembaucher pour quelqu’un à cause du manque de compétence. Une entreprise socialement responsable a le devoir d’accompagner les gens pour leur permettre de développer de nouvelles compétences », dit-elle.
L’Ordre des CRHA n’a toujours pas adopté de position officielle sur la manière d’encadrer le recours éthique à l’IA. La formation et la sensibilisation du personnel semblent être la clé.
Alina N. Stamate suggère aussi d’adopter des politiques qui dictent clairement quand et pourquoi l’usage de l’IA est permis.
De nombreuses organisations se posent d’ailleurs à l’heure actuelle ces questions, au moment où des employés s’acoquinent avec l’IA générative sans l’aval de la haute direction, confirme Manon Poirier. Cette dernière ne recommande toutefois pas d’en interdire l’utilisation afin de mitiger le risque de dérapages. « C’est très préoccupant, reconnaît-elle. L’interdire, c’est de se mettre la tête dans le sable. Il faut plutôt se demander comment l’encadrer. »
D’où l’importance de s’y atteler rapidement, selon la directrice générale.
Pour demeurer à l’affût des dérives, Alina N. Stamate recommande aussi de demander de l’aide à des experts pour répondre à certaines questions « complexes ou précises. » Elle ajoute aussi que « les problèmes éthiques liés à l’IA peuvent être identifiés et résolus rapidement en favorisant une communication ouverte et transparente ».
L’importance de bien superviser
Les divisions de ressources humaines qui comptent adopter l’IA devront aussi effectuer un travail diligent afin de s’assurer que l’utilisation qu’ils en feront est exemplaire. C’est pourquoi la professeure de l’ESG UQAM leur suggère de mener fréquemment des audits et de vérifier quelles sont les répercussions de son recours sur les employés, leur niveau de satisfaction et leur développement professionnel.
« Ces audits peuvent être réalisés par des experts internes ou externes qui évalueront la qualité des données, des algorithmes et des résultats de l’IA afin de détecter d’éventuels biais, erreurs ou anomalies », explique-t-elle.
Des mécanismes tels que des systèmes d’alerte ou de signalement peuvent aussi être implantés afin de « garantir la transparence et la traçabilité, et de protéger les droits et les intérêts des personnes affectées par l’IA ».
Ce que les entreprises et les divisions des ressources humaines ne doivent surtout pas perdre de vue, c’est que cet épineux dossier est en constante évolution. C’est pourquoi Alina N. Stamate prône la vigilance non seulement sur les avancées en matière d’éthique et de conformité, mais aussi sur les répercussions de l’IA sur l’organisation, afin de « s’adapter en conséquence. »