logo Info-Social RH
Se connecter
Newsletter

Les clés

Intelligence artificielle : appel à une « éthique humaniste »

Les clés | À lire | publié le : 08.06.2020 | Lydie Colders

Image

Intelligence artificielle : appel à une « éthique humaniste »

Crédit photo Lydie Colders

Dans cet essai, Cédric Sauviat, chef d’entreprise militant pour une intelligence artificielle raisonnée, et Marie David, responsable des systèmes de données dans l’assurance, critiquent le manque de réflexion sur « l’éthique humaine » du big data, notamment dans le monde du travail. Transférer une part des décisions des salariés vers des algorithmes serait loin d’être neutre…

Faut-il craindre la tyrannie de l’IA ? Dans leur essai, les deux polytechniciens estiment que « la philosophie implicite des technologies » n’est pas neutre, la jugeant « inquiétante » dans la vision de la vie et de l’homme : en « promouvant une équivalence entre l’humain et la machine, elle permet d’imaginer une pensée sans sujet qui nie la subjectivité ». Gafam déstabilisant nos sociétés, dominance de la Chine dans l’IA, transformation du travail, les auteurs dressent un tableau sombre de « cette ruée de l’or » vers les technologies, qui serait aveugle aux conséquences possibles de l’IA. Du côté de l’entreprise, Cédric Sauvat et Marie David s’inquiètent de cette frénésie de l’innovation qui « dépossède les salariés de leur expérience » (ils citent l’exemple des métiers du back-office « appauvris » par les technologies). Car, pour eux, la prétendue cohabitation rassurante entre l’humain et l’IA serait un leurre : « Cette complémentarité est en fait une vassalisation, car un nombre croissant de décisions sont prises par des algorithmes qui dévaluent notre rationalité et nous privent de fait de toute responsabilité », assènent-ils. À terme, le risque serait selon eux de voir disparaître tout intérêt « pour l’expertise » des salariés, qui « requièrent du temps, des échanges », vers l’adaptation constante aux technologies. Du moins dans certains métiers. La critique est poussée, mais donne du grain à moudre sur un travail de plus en plus assisté par les technologies.

Des ingénieurs trop peu scrupuleux ?

Les auteurs fustigent aussi « la mode » des chartes éthiques « superficielles » sur l’IA des entreprises. L’éthique n’est pas un concept, mais « un point de vue moral sur l’idée du bien et du mal ». Reprenant le rapport Villani sur l’IA, ils préconisent en premier lieu d’ouvrir ce débat moral chez les ingénieurs qui conçoivent les algorithmes, au lieu d’un simple enseignement à la « conformité » comme le RGPD. Trop peu « remettent en question ce qu’ils élaborent ». Ils appellent aussi à anticiper un large audit de l’IA, et pas seulement « par une poignée d’experts ». Deux idées pas inintéressantes.

Auteur

  • Lydie Colders