La diffusion des systèmes d’intelligence artificielle va-t-elle modifier l’organisation du travail ? La réponse est positive selon Odile Chagny, coordinatrice du projet IA de l’Ires, cofinancé par l’Anact. Le pilotage de cette transformation peut rester entre les mains des parties prenantes… à certaines conditions.
Quelle est la particularité des systèmes d’IA (SIA) par rapport à d’autres outils technologiques ?
Odile Chagny : La particularité des systèmes d’IA, c’est qu’il s’agit d’outils qui, avec un certain degré d'autonomie, aident à prendre des décisions de façon plus ou moins automatique. Pour les IA génératives, elles produisent de surcroît du contenu. Il peut donc y en avoir dans tous les secteurs pour tout ce qui relève d'une aide à l'action et à la prise des décisions. Sont donc concernées, notamment mais pas seulement, toutes les actions qui concernent l’organisation de planning, la sélection de rendez-vous, etc. De grandes entreprises testent ou déploient ce type d’outils.
D’où vient la difficulté d’analyse de leur impact ?
O. C. : La grande difficulté quand il s’agit de réfléchir à l'impact de ces systèmes-là sur le travail, c'est que la question est très souvent abordée sous l’angle des tâches que réalisent les travailleurs. Les analyses examinent quelles tâches rébarbatives ou chronophages vont pouvoir être déléguées à l'IA afin d’augmenter leur efficacité. Cette approche ne prend pas en compte les impacts inédits sur tout ce qui relève de toutes les dimensions du management, au sens d’instructions, de contrôles et de surveillance, globalement tout ce qui relève de la dimension managériale et, au-delà, de l'organisation du travail. Or les SIA percutent la réalité des organisations.
« Les systèmes d'intelligence artificielle entrent de fait en contact avec l'organisation du travail et, parfois, ils vont même organiser, voire modifier l’organisation du travail et induire des process complètement nouveaux. »
Que faut-il comprendre par « percuter » ?
O. C. : Ils percutent au sens propre du choc que produit un système qui rentre dans l'entreprise et qui n'est pas neutre. Les systèmes d'intelligence artificielle entrent de fait en contact avec l'organisation du travail et, parfois, ils vont même organiser, voire modifier l’organisation du travail et induire des process complètement nouveaux. Dans le projet IA que je coordonne pour l’Ires et cofinancé par l’Anact, nous avons dégagé trois types de configurations. Dans la première, les équipes maîtrisent l’ensemble des étapes du système, développent leur projet et fixent les objectifs. C’est le système qui s’adapte à l’organisation dans laquelle il va s’insérer. Il existe une deuxième configuration, où les travailleurs vont utiliser un système « sur étagère », qu’ils ne peuvent pas paramétrer pour l’adapter à leur organisation. Là, ce sont eux qui devront s’adapter au SIA. Dans le troisième cas de figure, le paramétrage est possible et il ouvre la voie à une gradation dans la maîtrise de l’outil et donc de son impact sur l’organisation du travail.
Quel exemple pourrait illustrer cette dimension ?
O. C. : Dans une grande entreprise, un outil de planning a été déployé sans appréhender en amont la complexité du travail réel. Ce dispositif a contraint les salariés à travailler différemment et, pour déroger au « process », ils devaient engager des modalités de reporting à des niveaux hiérarchiques qui n'étaient pas du tout ceux impliqués auparavant.
« Si l’IA libère les salariés de tâches chronophages ou rébarbatives, ils ne seront plus mobilisés que par des tâches complexes. Dans ce cas-là, il y a un risque d’intensification de l’activité, donc une augmentation du risque psychosocial. »
Ces systèmes peuvent-ils faire courir des risques individuels ?
O. C. : Il peut bien sûr aussi y avoir des conséquences individuelles, car si l’IA libère les salariés de tâches chronophages ou rébarbatives, ils ne seront plus mobilisés que par des tâches complexes. Dans ce cas-là, il y a un risque d’intensification de l’activité, donc une augmentation du risque psychosocial. Par ailleurs, il faut aussi prendre en compte les impacts sur le métier lui-même et plus globalement sur l’organisation du travail. Pour mesurer correctement toutes les répercussions, il faut prendre en compte ces trois aspects.
Quelles sont vos préconisations ?
O. C. : Il faut d’abord lancer une concertation en amont de l'introduction du système d'intelligence artificielle, au moment de la réflexion sur le cahier des charges afin d’en mesurer la nécessité et l'opportunité. Dès ce moment initial, les organisations doivent se donner la capacité, si ce n'est de mettre du dialogue, en tout cas d’essayer afin de se mettre en capacité d'appréhender les besoins métiers, à ce moment-là, dès l'amont. Dès cette étape, il faut réfléchir à associer l'ensemble des parties prenantes de l'entreprise, autrement dit des représentants des métiers, des RH, de l'IT, mais aussi des représentants des salariés, des représentants des personnels, avec évidemment les représentants de la direction de la stratégie.
« Il faut donc un comité de suivi comportant des représentants du personnel, de la direction de la stratégie, de la RH, des services IT, des métiers et, quand c’est possible, des ergonomes. »
Comment doit être menée l’introduction de ces systèmes d’IA ?
O. C. : L'expérimentation doit être menée de façon à en tirer des enseignements. Elle ne doit pas être menée dans une approche top-down de déploiement des systèmes d'intelligence artificielle, mais plutôt de façon à être en capacité d'en mesurer les impacts sur tel ou tel métier pour pouvoir, justement, jouer ensuite sur le paramétrage. Ensuite, il faut que les pilotes soient coconstruits, ou en tout cas coélaborés. Il faut aussi être en capacité d'avoir en permanence les possibilités de retour en arrière, ce que nous appelons des « clauses de revoyure ». Pourquoi une telle clause ? Parce qu'un système d'intelligence artificielle n’est pas un produit achevé, terminé comme les autres. Une fois en action, il va continuer à être entraîné. Il peut donc produire des biais, ce qui va amener à le modifier, produire des recommandations d’usage, etc. Les parties prenantes doivent vraiment être en capacité d'agir à tous les moments du cycle d’un système d’intelligence artificielle. Et c'est cette démarche cyclique, de dialogue permanent, qui est proposée par l'accord-cadre européen de 2020.
Comment faire concrètement ?
O. C. : Il faut instituer une forme de permanence du dialogue. C'est ce que nous préconisons dans le cas du projet DialIA, qui est porté par 80 participants, des structures du monde syndical, mais aussi provenant d'organisations patronales. Nous avons coélaboré cette vision que le dialogue doit être permanent tout le long du cycle de vie d’un système d’IA. C’est ainsi que les parties prenantes peuvent être en capacité d'appréhender au mieux les impacts, d'en mesurer les effets au fil du déploiement et puis, éventuellement, de se donner les moyens de modifier, revenir en arrière ou stopper l’introduction de ces systèmes. Il faut donc un comité de suivi comportant des représentants du personnel, de la direction de la stratégie, de la RH, des services IT, des métiers et, quand c’est possible, des ergonomes. C’est ce comité de suivi qui permet d'avoir une forme de réactivité par rapport au déploiement.