Les grandes entreprises ont-elles intégré dans leurs plans de vigilance les dommages sociaux et environnementaux que peut causer l’IA ? Rien n’est moins sûr, indique le dernier rapport du collectif de juristes Intérêt à agir qui souligne les risques juridiques auxquels s’exposent ces organisations.
Beaucoup d’entreprises soumises au devoir de vigilance institué par la loi du 27 mars 2017 (n°2017-399), soit celles employant au moins 5.000 salariés en France, n’ont toujours pas intégré les risques liés à l’intelligence artificielle (IA) dans leur plan de vigilance. C’est le constat établi par l’association Intérêt à agir qui se définit dans ses statuts comme un « collectif de juristes universitaires et praticiens désireux d'équilibrer les rapports de force et se plaçant au service de la protection des biens communs et des droits humains ».
Dans un rapport publié fin septembre1, elle passe en revue les plans de vigilance élaborés par onze grandes sociétés. But de l’opération : vérifier si les risques liés à l’usage de l’IA y sont identifiés. Résultat : dans 10 cas sur 11, le plan de vigilance ne les identifie pas, ou pas clairement. Seule exception : le plan de vigilance de Teleperformance, entreprise spécialisée dans la relation client, qui fait « mention de mesures particulières dédiées aux modérateurs de contenu (prévention des risques psychologiques) ».
Absence de l’IA dans les plans de vigilance
Les plans de vigilance de quatre sociétés mentionnent les « risques associés aux droits humains, à la santé et à la sécurité plutôt détaillés mais [il y a une] absence de mention du lien avec le recours à l’intelligence artificielle ». Chez Capgemini, le plan mentionne, s’agissant de l’intelligence artificielle, le « risque éthique et juridique relatif à la protection des données à caractère personnel et liés au biais ». Chez Thales, c’est dans une charte éthique que sont mentionnés les « risques liés au biais, à la confidentialité des données et l’importance du maintien du contrôle par l’humain ».
Le rapport du collectif Intérêt à agir note la faible précision ou l’absence de mention de risques dans les plans de vigilance des sociétés Sodexo, Société générale, Stellantis et Airbus. Une situation que cette organisation estime d’autant plus alarmante que « toutes les plus grandes entreprises françaises ont recours à l’IA pour des cas d'utilisation d’une diversité insoupçonnée » parmi lesquels le rapport cite l’automatisation des caisses dans la restauration collective, les robots conseil en ligne pour faire ses courses dans la grande distribution, le diagnostic dermatologique dans les cosmétiques, la recherche et développement de nouveaux médicaments ou encore les passages piétons « intelligents ». Les ressources humaines figurent aussi parmi les utilisations.
Une enquête en Colombie
Il ressort de l’analyse menée par Intérêt à agir que « les conséquences sociales et environnementales de l’élaboration des services d’IA qu’achètent les plus grandes entreprises françaises sont la plupart du temps éludées ». Le rapport estime que ces organisations « n’abordent pas du tout les conséquences sociales et environnementales des services d’IA qu’elles achètent, en contrariété apparente avec le devoir de vigilance que la loi française leur impose depuis 2017 ».
Parmi les 11 sociétés analysées, Teleperformance fait figure d’exception puisqu’elle a mis en place des mesures de protection de la santé mentale des modérateurs de contenu après avoir fait l’objet d’une enquête en Colombie.
Une « responsabilité particulière »
Les auteurs du rapport déplorent le peu d’informations diffusées sur « ce que l’IA fait aux territoires et aux habitants des pays dans lesquels cette rupture technologique laisse des traces ». Ils rappellent que « le rapport remis par la Commission de l’IA au président de la République au printemps 2024 réalise l’exploit de présenter la chaîne de valeurs de l’IA sans jamais parler des sous-traitants recrutant des millions de travailleurs dans le monde qui contribuent à son élaboration dans des conditions parfois extrêmement difficiles ».
Rappelant que l’IA provoque des dommages sociaux et environnementaux, le rapport souligne « que les entreprises soumises au devoir de vigilance doivent identifier et évaluer pour chercher à les éviter ». Les auteurs concluent que ces sociétés portent « une responsabilité particulière dans les conséquences sociales et environnementales du développement » de cette technologie et qu’elles « s’exposent à des actions en justice pour ne pas prendre suffisamment en considération les risques que les services d’IA qu’elles acquièrent et déploient font peser sur l’environnement et les droits humains de millions de travailleurs ».
(1) Le rapport du collectif Intérêt à agir : Intelligence artificielle et devoir de vigilance, il y a intérêt à agir