Pour relever les défis éthiques posés par les outils RH innovants, les organisations doivent, selon Agathe Fonsagrives, étudier leur acceptabilité avant de les déployer et les ajuster jusqu’à obtenir un assentiment satisfaisant des utilisateurs finaux.
Selon Clotilde Coron, chercheuse spécialisée dans la quantification en RH, ces outils modifient les méthodes de travail du métier RH. Cumulant automatisation, quantification, personnalisation et prédiction, c’est toute la manière d’administrer les individus qui évolue1. Ce changement implique de nouveaux enjeux à l’égard des individus. Prenons l’exemple du matching qui prédit le niveau d’adéquation entre un poste en mobilité interne et un salarié. L’enjeu est majeur pour ce dernier, puisque l’épanouissement qu’il connaîtra dans sa prise de poste dépend de l’évaluation faite algorithmiquement. Or ce genre d’outil est mis en cause par la chercheuse Cathy O’Neil2. Les modèles de fonctionnement véhiculent les opinions de leurs concepteurs et conservent des biais déjà présents dans les données d’entraînement. Les décisions qu’ils font prendre amènent par conséquent à des injustices, laissant dans le désarroi les individus qui ne comprennent pas comment les décisions ont été prises, et qui ne peuvent pas faire appel. Dès lors, on comprend mieux pourquoi le cabinet Gartner prévoit que des outils RH manquant d’éthique vont défrayer la chronique dans les temps à venir3.
Pour qu’un outil remplisse sa mission, encore faut-il qu’il soit mobilisé par l’utilisateur final, salarié ou candidat. Cependant, l’organisation ne prend pas le soin de vérifier que ce dernier fera bien preuve d’enthousiasme à l’idée d’utiliser l’outil. Compte tenu de ce qui se joue pour lui, la confiance qu’il éprouve est pourtant centrale. Il ne jouera pas le jeu de l’utilisation s’il n’adhère pas à la philosophie de l’outil – ce qui viendra de fait enrayer la bonne marche du processus. Il se débrouillera pour ne pas emprunter le chemin qui a été balisé. Par exemple, pour une mobilité interne, il trouvera d’autres manières d’être informé des offres (liste brute des offres, réseautage…), il fera lui-même ses choix d’orientation et il postulera en direct. Et plus généralement, si la masse des individus ne fournit pas au système les précieuses données dont il a besoin pour fonctionner, en quantité et en qualité, le système ne pourra pas opérer au sein du processus comme prévu initialement.
En tant qu’« agent moral », l’organisation doit se comporter moralement envers le « patient moral » qu’est l’utilisateur final. Il lui appartient donc de garantir que l’outil agit aussi dans l’intérêt de ce dernier. Faute de quoi l’entreprise s’expose à plusieurs types de risques. Premièrement, sur le plan opérationnel, l’outil ne joue pas son rôle, voire génère des effets de bord (effets secondaires). Deuxièmement, sur le plan financier, la performance attendue via la bonne marche des processus est entravée. Troisièmement, sur le plan humain : l’entreprise s’expose à des tensions (stress, mal-être, désengagement…). Quatrièmement, sur le plan juridique, l’organisation se retrouve dans des situations où elle est défaillante par rapport à l’obligation de sécurité qui lui incombe, où les salariés exercent des recours, où elle est poursuivie pour discrimination et où elle doit payer une amende (RGPD). Et cinquièmement, sur le plan réputationnel : l’organisation est potentiellement mise en cause par l’opinion publique pour des pratiques non éthiques. Ce qui vient ajouter un sixième risque sur le plan commercial, celui de la fuite de clients qui ne souhaitent pas être associés à un fournisseur dont la réputation est remise en cause.
Les entreprises appréhendent les outils à travers un prisme gestionnaire. Elles cherchent à « adresser » un problème de gestion. Elles regardent donc comment l’outil permet de régler ce problème et les bénéfices qu’elle peut en tirer (gain de temps et d’argent). Et elles mettent en place l’outil en se disant que les utilisateurs finaux l’adopteront exactement comme elles l’ont imaginé. Or cette approche ne permet pas de répondre aux préoccupations d’ordre éthique qui touchent les utilisateurs finaux. Pour prendre en compte ces questions, les organisations doivent réellement placer la perception de l’utilisateur final au cœur des réflexions. Concrètement, avant de choisir un outil, cela suppose de mener une analyse d’acceptabilité, c’est-à-dire une étude qui permet d’« évaluer et/ou de prédire les conditions et les motifs qui peuvent rendre une technologie acceptable ou non par les futurs usagers »4. À cette occasion, les questions d’ordre éthique sont en mesure d’émerger et d’être traitées par l’équipe en charge du projet de mise en place, et ce, jusqu’à ce que le niveau d’assentiment soit évalué comme étant suffisant.
Jusqu’ici, j’ai plutôt constaté que la prise en compte des enjeux éthiques n’était pas au centre des préoccupations… Derrière les pseudos démarches centrées sur l’expérience de l’utilisateur final, c’est en réalité l’approche technico-gestionnaire qui domine. En revanche, je vois émerger des phénomènes qui me font dire que la prise de conscience est en passe de démarrer. Les effets pervers du numérique commencent à être connus des utilisateurs finaux (déshumanisation, hyperconnexion, fatigue cognitive, injustices…). Et au lieu de subir, ceux-ci choisissent d’adapter l’utilisation qu’ils ont des outils : ne pas les utiliser du tout, limiter l’étendue de l’utilisation ou utiliser un autre outil. Les consciences s’élèvent aussi du côté des designers de l’industrie numérique. En France, un collectif visant une conception responsable et durable des produits a par exemple vu le jour en 20175, et l’éthique du numérique commence à être enseignée dans certaines écoles de design. Du côté des entreprises dont le modèle d’affaires repose sur le numérique, de nouvelles fonctions dévolues à l’éthique et à la confiance numérique émergent aussi actuellement. Et dans le domaine RH plus particulièrement, des sociétés de conseil et des éditeurs intègrent dans leurs équipes de R &D des profils académiques issus des sciences humaines et sociales. On attend de ces derniers qu’ils injectent les apports de disciplines comme la psychologie, la sociologie ou les sciences de gestion dans les processus de design et de mise en place des outils innovants.
Après quinze ans d’expérience dans le numérique, Agathe Fonsagrives a démarré en 2021 une thèse de doctorat en sciences de gestion dans le domaine des ressources humaines à l’Institut d’administration des entreprises (IAE) de l’université Paris-Sorbonne. Ses travaux portent sur la perception de la justice des outils de matching par les utilisateurs finaux et sur la manière dont cette justice est prise en compte par les acteurs de l’édition d’applicatifs ainsi que dans leur déploiement au sein des organisations.
(1) Coron, C. (2019). Quantification en ressources humaines : Usages et analyses (Vol. 2). ISTE Group.
(2) O’Neil, C. (2018). Algorithmes : la bombe à retardement. Les arènes.
(3) Gartner (2020). HR predictions webinar (janvier).
(4) Chaumon, M. E. B. (2016). L’acceptation située des technologies dans et par l’activité : premiers étayages pour une clinique de l’usage. Psychologie du travail et des organisations, 22 (1), 4-21.
(5) Collectif Les designers éthiques. https://designersethiques.org.