logo Info-Social RH
Se connecter
Newsletter

À la une

La face cachée des algorithmes

À la une | publié le : 04.11.2016 | Anne-Cécile Geoffroy

Image

La face cachée des algorithmes

Crédit photo Anne-Cécile Geoffroy

Les entreprises n’en sont qu’aux prémices. Mais, dans tous les domaines des RH, les algorithmes couplés au big data font miroiter des miracles. Or ces outils ne sont ni neutres ni transparents. Leur usage requiert vigilance et éthique.

Difficile d’y échapper ces derniers mois. Au risque de l’overdose ! Qui n’a pas entendu parler de big data, d’algorithmes, de machine learning, de deep learning ou d’intelligence artificielle ? Des concepts mathématiques et informatiques, nébuleux pour le plus grand nombre, auxquels le discours ambiant ne cesse de prêter des superpouvoirs. Pêle-mêle : la fin des emplois non pourvus et, par ricochet, du chômage de masse ; la disparition de l’absentéisme et de la discrimination dans les entreprises ; l’avènement des recrutements fiables à 100 % ; la détection des salariés sur le départ (avant même que ceux-ci n’y aient pensé), ou la mesure quasi instantanée de leur satisfaction au boulot… Serions-nous parvenus aux portes de l’eldorado du DRH ? À écouter les discours marketing bien rodés de certains éditeurs de logiciels et de start-up spécialisées dans les RH, on aurait même déjà franchi le palier.

Rares sont pourtant les directions des ressources humaines capables de parler big data ou algorithmes et de présenter une stratégie mature dans le domaine. Celles des entreprises privées réputées les plus en avance, comme Engie, Axa, Aéroports de Paris, les Laboratoires Pierre Fabre, n’en sont finalement qu’aux prémices. « On vit un véritable effet de mode, souligne Frédéric Laurent, directeur associé du cabinet e-Consulting RH, spécialisé dans le recrutement de profils pénuriques. Le big data comme le recrutement prédictif font partie de la panoplie du recruteur up-to-date. Dans la réalité, les entreprises sont loin de s’être emparées de ces nouveaux outils. » Un constat que partage Arnaud Tardif, associé fondateur du groupe Fiabilis, spécialisé dans l’optimisation sociale. « Tous ces outils digitaux veulent faire gagner du temps aux équipes RH. Mais s’ils ne génèrent pas de valeur ajoutée forte pour l’entreprise, je crois moyennement à leur déploiement rapide dans les entreprises. »

Recette de cuisine.

Reste qu’à moyen terme la science des algorithmes va à coup sûr bouleverser toutes les fonctions de l’entreprise. « Avec le big data, notre société est atteinte de quantophrénie, pointe Assaël Adary, président du cabinet de conseil et d’études en communication Occurrence. Nous sommes passés de “tout peut se mesurer” à “tout doit se mesurer”. » Au centre de cette obsession, l’algorithme, qui nous permettrait de traduire tous les phénomènes sociaux et humains en langage mathématique. Une technique de calcul qui n’est pas neuve mais qui, couplée à la puissance des ordinateurs, permet de trier, classer, organiser rapidement une masse de données toujours plus imposante.

Un big data qui se nourrit des données produites par les entreprises comme par les administrations publiques, de plus en plus accessibles. Mais aussi des multiples traces, très personnelles, que nous laissons consciemment ou non derrière nous : un Tweet, une photo, un avis, un like que nous postons sur les réseaux sociaux. Tel le cheminement que nous empruntons sur un moteur de recherche pour trouver une information ou se connecter à un site d’achat en ligne. Des activités continuellement tracées. « Les données passives sont un enjeu massif car elles permettent de caractériser les comportements des individus. Pour la fonction marketing, les algorithmes sont un moyen d’arriver à une hyperindividualisation de la relation avec le client. Pour les RH ce sera avec le candidat ou le salarié », explique Jean-Marc Ayme, enseignant-chercheur à l’université Paris-Dauphine.

« Un algorithme n’est qu’une suite d’opérations logiques pondérées. Comme une recette qui indiquerait les bonnes proportions à utiliser pour chaque ingrédient afin de parvenir au meilleur résultat, rappelle Jérémy Lamri, président du Lab RH, une association de start-up, et patron de Monkey Tie, un site de recrutement affinitaire. Toute la question est de savoir qui fixe la pondération et comment. » Et c’est là que le bât blesse. Les algorithmes sont des « recettes » très peu partagées. En dehors des data crunchers ou des data miners, dont le métier est de « croquer » des données et de les faire « parler », les DRH n’ont ni le temps ni les compétences pour comprendre et questionner la formule magique à la base des outils proposés.

La multiplication des applications numériques et de leurs algorithmes dans les processus RH pourrait donc conduire très vite à une « boîte-noirisation » des ressources humaines. « Dans les systèmes d’information RH conventionnels, la vision des paramétrages était claire. Elle restait à la main du DRH et du DSI. Avec une technologie comme le machine learning, où les modèles informatiques évoluent constamment, on ne sait plus qui contrôle l’algorithme », indique François Geuze, un ancien DRH devenu consultant spécialisé dans les systèmes d’information.

De fait, les DRH titillent encore trop peu les concepteurs de ces applications numériques en interrogeant par exemple la qualité et la fiabilité des bases de données utilisées pour faire tourner leur algorithme. « Sur LinkedIn on est tous des stars. Personne ne se vante de ne pas avoir de diplôme ou d’avoir échoué dans une mission », illustre Arnaud Tardif chez Fiabilis. Par ailleurs, les algorithmes ne sont jamais neutres car ils reposent sur des hypothèses. « La machine donnera certes toujours un résultat, encore faut-il savoir si les hypothèses de départ sont justes pour que le résultat ne puisse être remis en question », ajoute Assaël Adary, du cabinet Occurrence et auteur de Big Data, Big Bug aux Éditions du Palio (sortie prévue ce mois-ci).

Promesses du prédictif.

La grande force de l’algorithme est de proposer des corrélations qui peuvent bousculer certaines idées. C’est d’ailleurs l’argument majeur des concepteurs des applications numériques. À les entendre, celles-ci sauraient mieux que l’homme éviter les pièges de la discrimination. Sauf qu’une corrélation, si séduisante soit-elle, ne peut être confondue avec une causalité. Si la courbe de l’absentéisme se confond avec celle de la présence des femmes dans une entreprise, doit-on en conclure que la gent féminine est à la seule source des arrêts de travail ? La réalité est autrement plus complexe que les promesses des modèles prédictifs qui tournent aujourd’hui. « Analyser des données passées pour prédire les réussites de carrières individuelles à venir revient à faire de la spéculation », estime ainsi Jean Pralong, titulaire de la chaire Nouvelles carrières de Néoma Business School et fondateur de Saven, une entreprise spécialisée dans le recrutement prédictif et l’orientation professionnelle.

Un constat partagé par Jérémy Lamri, de Monkey Tie. « C’est une erreur de raisonnement de penser qu’à partir du passé on peut prédire l’avenir. Tout simplement parce que nous vivons dans un environnement en perpétuel mouvement qui a un impact sur les personnes comme sur les entreprises. » « Un algorithme ne peut avoir de sens que dans un contexte lié aux priorités de l’entreprise, ajoute de son côté Frédéric Laurent, directeur associé du cabinet e-Consulting RH. Autrement dit, lorsqu’on pourra modéliser la notion de performance dans une entreprise, alors on pourra dire que l’on sait faire du recrutement prédictif. »

Ces mises en garde devraient pousser les directions des ressources humaines à soulever le capot de ces nouvelles applications. Pour y débusquer les biais de nature à renforcer les stéréotypes de genre et être sources de discrimination dans les processus de présélection des candidats ou le choix des salariés pour une mobilité. Pour éviter aussi les effets apprentis sorciers de certaines applications (voir pages suivantes), d’autant plus si celles-ci s’appuient sur les données à caractère personnel qui fourmillent sur des réseaux sociaux comme Facebook, LinkedIn ou Twitter. « Les entreprises doivent être très vigilantes lors de la rédaction du cahier des charges des outils. L’utilisateur est aussi responsable et ne peut pas se réfugier derrière une application numérique en cas de discrimination », rappelle Clémence Levesque, chargée de mission à la promotion de l’égalité et de l’accès aux droits pour le Défenseur des droits et coauteure d’un guide sur l’utilisation des outils numériques de recrutement.

Le groupe d’intérim et de recrutement Randstad a suivi cette règle à la lettre en se dotant d’un outil big data qui aspire et analyse plus de 500 000 offres d’emploi actives sur le Net chaque mois. Il les met en regard de 7 000 compétences et de 900 types de métiers et qualifications. Objectif : proposer une analyse fouillée par territoire de la situation de l’emploi. « Ces questions éthiques ont été posées dès le début du projet. Nous avons intégré à nos réflexions le correspondant informatique et liberté du groupe, comme le prévoit le futur règlement européen sur les données personnelles, explique François Béharel, président de Randstad France. Toutes les données que nous utilisons sont anonymisées. »

Pour Éric Peres, vice-président de la Cnil, la responsabilité doit surtout être portée par les concepteurs des technologies. « Ils doivent se poser les questions éthiques liées à l’utilisation des données à caractère personnel en amont de leur développement. Faire l’économie de cette question, c’est une façon de renvoyer la responsabilité au seul usager », estime-t-il. Une pierre lancée dans le jardin des éditeurs et des start-up RH. « Ces questions, nous en discutons régulièrement au Lab RH, indique Jérémy Lamri, qui annonce pour 2017 une charte éthique. Légalement, les entreprises devraient indiquer quels sont les critères utilisés par leur algorithme. Sauf qu’aucune ne le fait par crainte de voir s’échapper ce qui fait le cœur de leur business. »

Opacité.

Ce souci de transparence va pourtant dans le sens de l’histoire. Cet été, un collectif de lycéens a hacké l’algorithme APB, l’outil utilisé par l’Éducation nationale pour organiser l’admission des bacheliers dans les universités. Objectif : comprendre les critères utilisés, jugés trop peu transparents. Une opacité qui pourrait freiner le développement des applications RH en nourrissant la défiance à leur encontre. « La France est en train de chercher l’adoption de normes qui pour le moment font défaut. La question de la transparence des traitements algorithmiques est soulevée par la récente loi pour une République numérique. Si, désormais, les administrations doivent rendre compte aux usagers, rien n’est dit pour les entreprises privées », constate Céline Castets-Renard, membre de l’Institut universitaire de France et responsable du master Droit du numérique de l’université Toulouse Capitole.

Le projet de règlement européen sur les données à caractère personnel devrait forcer les entreprises à bouger. Le texte prévoit la fin des formalités administratives auprès de la Cnil mais renforce aussi la responsabilité des entreprises en matière d’anonymisation des données à caractère personnel avec une sanction très lourde en cas de défaillance, fixée entre 2 et 4 % du chiffre d’affaires. Si, jusqu’ici, le Défenseur des droits n’a recensé aucune procédure mettant en cause un outil numérique de recrutement ou d’évaluation des compétences, Assaël Adary prédit que parmi les premières class actions qui surgiront en France, l’une d’elles sera liée à l’utilisation du big data et des données personnelles. « Avec l’utilisation des objets connectés dans l’entreprise, la fonction RH verra le volume de données géré en interne exploser », note le président d’Occurrence, qui plaide pour la création du métier de data déontologue au sein des ressources humaines. Un professionnel capable de « croquer » de la donnée et de faire le lien entre le producteur et l’utilisateur des données. Un agent de confiance qui, pour l’heure, fait défaut.

Répertoire de survie des DRH

Pour s’y retrouver dans le jargon des data scientists…

Analyse prédictive : techniques issues des statistiques, de data mining et de la théorie des jeux pour échafauder des hypothèses.

Applicant tracking system (ATS) : programme de gestion d’un processus de recrutement. Il collecte, analyse les CV et les met en lien avec les offres.

Apprentissage machine ou machine learning : algorithmes fournissant des capacités d’apprentissage aux ordinateurs.

Apprentissage profond ou deep learning : techniques permettant aux machines de se représenter le monde de façon hiérarchisée. Elles s’appuient sur la reconnaissance faciale et vocale ou le traitement automatique du langage.

Bots : robots algorithmiques. Les chatbots sont des bots conversationnels.

Big data : mégadonnées ou données massives.

Cookie : fichier texte stocké sur l’ordinateur de l’internaute. Il permet son authentification sur un site Internet et peut aussi traquer sa navigation sur le Web. La Cnil propose un outil de visualisation des cookies, Cookieviz, en accès gratuit sur son site.

Les IA ou intelligences artificielles : il en existe trois sortes. L’IA faible est celle qui joue aux échecs. L’IA forte a des capacités étendues dans tous les domaines que maîtrisent les humains. La superintelligence surpasse l’être humain.

Value sensitive design : conception de technologies prenant en compte les valeurs des humains.

Auteur

  • Anne-Cécile Geoffroy