Favoriser les recrutements tout en réduisant les inégalités femmes-hommes ? Une équipe de recherche du CREST et du LISN1 financée par l’institut Data IA a analysé pour Pôle Emploi le comportement d’un algorithme poursuivant ses objectifs. Christophe Gaillac, économiste, chercheur à l'université d'Oxford et associé au Crest, détaille pour Entreprise & Carrières les premiers résultats de ces travaux.
Quel est l’objectif de vos travaux ?
Christophe Gaillac : Cette étude vise à étudier les propriétés d’un algorithme qui ferait des recommandations d’offres d’emploi à un demandeur d’emploi, sur la base des embauches observées dans le passé pour les demandeurs d’emploi qui lui ressemblent. Un tel algorithme pourrait ainsi proposer des offres d’emploi sur lesquelles le demandeur d’emploi a une forte probabilité d’être recruté, et donc réduire le chômage frictionnel. Le problème est que, en s’appuyant sur les embauches passées, un tel algorithme peut aussi reproduire et ainsi conforter des biais, et en particulier des inégalités entre hommes et femmes. Par exemple, il pourrait proposer peu d’offres d’emploi dans le bâtiment à des femmes, et peu d’offres d’emploi dans les services à la personne à des hommes. Le projet de recherche vise donc à bâtir un algorithme de recommandation, observer dans quelle mesure il comporte de tels biais et comment il est possible de les réduire.
Quelles sont ces difficultés ?
C. G. : La première tient aux données utilisées pour élaborer l’algorithme, c’est-à-dire les embauches déjà réalisées. Elles résultent d’une combinaison entre les comportements des demandeurs d’emploi et ceux des recruteurs, les uns et les autres pouvant être entachés de biais. Le risque serait de les reproduire, ce qui aggraverait les inégalités existantes. La seconde difficulté tient au fonctionnement des algorithmes. Ils sont conçus pour optimiser un objectif précis. L’enjeu est donc de déterminer le degré d’équité de l’algorithme en mesurant, par exemple, les variations que produit le genre sur les offres d’emploi proposées. Au préalable, il faut définir ce qui est attendu en termes d'équité, et les variables décrivant le retour à l’emploi à prendre en compte.
Comment y parvenir ?
C. G. : Il faut d’abord déterminer le poids des préférences individuelles, potentiellement genrées, dans les écarts constatés dans les recommandations. Si ces écarts tiennent à ces préférences, alors ce qui sera jugé équitable doit en tenir compte. L’une des difficultés réside dans le fait que, même lorsque les données fournies ne lui indiquent pas le genre de la personne, l’algorithme arrive à le déterminer à partir d’autres éléments et donc le prendre en considération dans ses recommandations. Nous avons mis au point une méthode, dite « adversariale », pour l’empêcher de deviner le genre du demandeur d’emploi. Étant donné que les perceptions et les réactions aux recommandations sont fondamentales pour en évaluer la qualité, ce n’est qu’en bout de course qu’il sera possible de vérifier si ces recommandations sont suivies ou non et si l’algorithme réussit à réduire les différences selon le genre déjà constatées, ce qui est notre but.
Qu’indiquent les résultats des premiers diagnostics ?
C. G. : Ils montrent que l’algorithme proposerait des offres d’emploi différentes en fonction du genre. Néanmoins, ces différences, par exemple en termes de salaire ou de distance travail-domicile, restent inférieures à ce qui peut être observé dans le candidatures et les embauches réelles. Les résultats de l’algorithme peuvent donc être considérés comme plus équitables. Si l’algorithme est poussé à proposer des recommandations qui le soient encore davantage, les écarts entre hommes et femmes portant sur le salaire et sur la distance entre travail et domicile des offres proposées se réduisent mais les chances d’embauche aussi. Autrement dit, les femmes recrutées le seront à de meilleures conditions mais elles seront moins nombreuses à décrocher un emploi sur ces recommandations. La difficulté est donc de savoir où placer le curseur. Proposer des offres plus équitables mais qui ne satisfont pas les préférences des candidats, en l’occurrence plutôt des candidates, pose une autre question, celle des comportements, mais elle n’est pas du ressort de nos travaux sur cet algorithme.
Propos recueillis par Gilmar Sequeira Martins
(1) Crest : Centre de recherche en économie et statistique
LISN : Laboratoire interdisciplinaire des sciences du numérique