logo Info-Social RH
Se connecter
Newsletter

Chroniques

Jean Pralong, Stéphanie Lecerf, Isabelle Bastide : Du côté de la recherche

Chroniques | publié le : 02.12.2019 | Jean Pralong, Stéphanie Lecerf, Isabelle Bastide

Image

Jean Pralong, Stéphanie Lecerf, Isabelle Bastide : Du côté de la recherche

Crédit photo Jean Pralong, Stéphanie Lecerf, Isabelle Bastide

L’IA, de l’angoisse à la méthode

Serait-il stupéfiant d’affirmer que les professionnels du recrutement sont plus capables de comprendre les algorithmes utilisés dans leur métier que de comprendre comment fonctionnent les réfrigérateurs de leurs cuisines ? Le réfrigérateur est un outil dont le fonctionnement technique est méconnu mais dont l’usage est banal. Personne ne suppose que le froid produit provient de l’influence d’un djinn, d’un sortilège ou d’un miracle. Or l’intelligence artificielle (IA) et les algorithmes semblent souvent entourés de merveilleux. Et cette image fait basculer l’IA du domaine de la technique à celui de l’irrationnel. Pourquoi ?

La machine et l’IA

ouvrent les perspectives d’émancipation qu’on attend d’elles si elles libèrent du temps et de l’espace mental à leurs utilisateurs. Cette libération est possible si la machine n’est pas une cause d’incertitude, c’est-à-dire si les utilisateurs ne sont pas soumis à elle. La confusion courante entre algorithme et logiciel est une première cause de cette soumission. Rappelons la différence entre les deux : si le logiciel est construit en code, et donc relève de l’expertise des développeurs, les algorithmes (digitalisés ou non) sont des logiques de traitement de l’information qui relèvent de l’expertise métier. Un recruteur doit pouvoir comprendre comment l’IA trie des CV car ce processus relève précisément de son métier. Pour les mêmes raisons, il doit pouvoir comprendre comment un test modélise les capacités d’un candidat et les restitue sous forme de scores. Or la confusion entre logiciel et algorithme est parfois entretenue par les fournisseurs de solutions digitales. Maintenir cette confusion évite d’avoir à dévoiler des principes de fonctionnement que la science ou l’éthique pourraient réprouver. Mais elle n’est pas sans conséquences sur les praticiens : faute de pouvoir comprendre comment fonctionne l’IA, on se représente comment elle fonctionne. Les discours sur l’IA sont remplis de fantasmes : ici, on prédit la disparition du travail humain et son (grand) remplacement par des robots ; là, on vante les performances inouïes des machines et leurs capacités analytiques qui rendraient dérisoires les savoir-faire humains ; on discourt sur l’IA en général, comme on parlerait d’une religion, au lieu d’expertiser pragmatiquement l’une de ses applications. Et, quand on se penche sur une application en particulier, on cherche à observer si « ça marche », comme on le ferait devant un guérisseur, plutôt que de chercher à comprendre comment ça marche. Au praticien en demande de progrès et de performances, il n’est proposé que de faire confiance à ce qui s’apparente à des sortilèges. Rien n’est moins anxiogène.

Passons de l’angoisse à la méthode1 :

la compréhension de l’IA dans le recrutement est accessible à ceux qui se l’autorisent. Car les algorithmes ne sont que des séquences d’actions logiques. Ce sont donc des façons de raisonner qu’il est possible de comprendre et d’expertiser. Rien ne résiste à quelques questions simples : quelles données sont collectées ? Comment ? Quels traitements leur sont appliqués ? Des travaux scientifiques ont-ils établi la validité de ces traitements ? Sur quels échantillons ? Peut-on consulter ces travaux ou rencontrer leurs auteurs ? Préférer la méthode, c’est préférer un outil dont on comprend pourquoi il se trompe à un outil qui sélectionne bien mais dont on ne comprend pas comment il s’y prend. Ne pas comprendre n’est pas la preuve d’une incompétence ou d’un ringardisme prédigital : c’est une position inconfortable et instable qui signale que l’analyse n’est pas achevée. Ici se trouve le point de bascule entre la pensée technique et la pensée magique : adopter un outil dont on croit qu’il fonctionne plutôt qu’un outil dont on comprend comment il fonctionne maintient le praticien dans une posture angoissante, irrationnelle et, finalement, peu professionnelle. Or « there is no ghost in the machine, » ni dans l’IA, ni dans votre réfrigérateur.

(1) En référence (respectueuse) à Georges Devereux (De l’angoisse à la méthode dans les sciences du comportement, Flammarion, 1980).

Auteur

  • Jean Pralong, Stéphanie Lecerf, Isabelle Bastide