logo Info-Social RH
Se connecter
Newsletter

À retenir

Positive AI, une initiative pour un label «IA responsable»

À retenir | publié le : 05.12.2022 | Gilmar Sequeira Martins

Comment dissiper la méfiance que suscite l’intelligence artificielle? L’Oréal, Malakoff Humanis, Orange France et BCG Gamma misent sur Positive AI, une association qui mènera des audits sur les algorithmes utilisés par ses membres et délivrera un label.

L’intelligence artificielle sera responsable ou ne sera pas. Avec cette conviction, quatre groupes – L’Oréal, Malakoff Humanis, Orange France et BCG Gamma – viennent de lancer l’initiative Positive AI, terme qui recouvre à la fois une démarche et un label. « Au-delà des outils, d’un label et d’un référentiel, nous allons également créer un espace d’échanges avec les futurs adhérents autour de cas d’usages et de pratiques, afin de mûrir la réflexion, de contribuer au débat public et de nourrir le dialogue entre les entreprises et les pouvoirs publics », détaille ainsi Laetitia Orsini Sharps, vice-présidente exécutive d’Orange France et portée à la tête de l’association. Si les entreprises sont à l’origine de la démarche, c’est qu’elles sont les « premiers acteurs des outils d’IA et sont confrontées aux difficultés de la mise en œuvre des recommandations assurant une IA responsable », ajoute-t-elle.

« Est-ce dangereux? »

L’association vise donc à accompagner les entreprises et à les outiller, afin qu’elles « progressent en expertise et rendent visible leur démarche dans leur propre organisation », poursuit-elle. Et ce, grâce au référentiel mis au point par les experts sollicités et qu’utilisera EY pour mener des audits, notamment. Positive AI s’est en outre dotée d’un comité indépendant, composé de trois experts en IA et en éthique (lire encadré). Un point particulièrement important pour Malakoff Humanis qui a lancé une initiative sur les données il y a cinq ans. « Nous avons été confrontés à des interrogations de la part des salariés : “Est-ce dangereux ?”, “qu’allons-nous devenir ?”, relève David Giblas, directeur général délégué de Malakoff Humanis. Nous leur avons répondu que l’IA a un double objectif : réaliser les tâches fastidieuses et fournir des aides à la décision. Elle va aussi rendre les métiers plus attractifs. Nous avons listé les usages interdits et pris l’engagement de revenir vers les salariés avec les cas d’usage et faire témoigner ceux qui les utilisent. » En effet, selon lui, les limites du référentiel publié par l’Union européenne en 2019 restent insuffisantes.

Pour L’Oréal, qui développe de nombreux algorithmes d’IA et qui en achète aussi à des prestataires externes, ce référentiel et les audits qu’il permettra de mener sont essentiels. « Nous allons pouvoir disposer d’une transparence et la partager avec les fournisseurs de notre écosystème grâce au regard bienveillant et critique de personnalités qualifiées », remarque ainsi Ariane Thomas, directrice mondiale tech du développement durable du groupe. Le référentiel et les audits menés par Positive AI devraient être opérationnels dès le premier trimestre 2023.

Un comité d’experts

L’initiative Positive AI s’est dotée un comité d’experts composé de Raja Chatila, professeur émérite de robotique, d’IA et d’éthique à Sorbonne Université, de Caroline Lequesne-Roth, maîtresse de conférences en droit public et responsable du master 2 droit algorithmique et gouvernance des données à l’université Côte d’Azur, et de Bertrand Braunschweig, coordonnateur scientifique du programme Confiance.ai.

Auteur

  • Gilmar Sequeira Martins