logo Info-Social RH
Se connecter
Newsletter

La Commission européenne veut réglementer l’intelligence artificielle

Digitale | publié le : 23.04.2021 | Gilmar Sequeira Martins

La Commission européenne a proposé un nouveau cadre juridique pour l'intelligence artificielle, ainsi qu’un plan « coordonné avec les États membres » pour garantir « la sécurité et les droits fondamentaux des citoyens et des entreprises » tout en renforçant l’adoption de ces nouvelles technologies. À cette démarche s’ajouteront des règles s’appliquant aux machines pour « accroître la confiance des utilisateurs (…) en adaptant les dispositions relatives à la sécurité ». Les nouvelles règles, basées sur « une définition de l’IA à l’épreuve du temps » et « directement applicables » dans tous les États membres, suivent une approche fondée sur les risques. Sera considérée comme un « risque inacceptable » et interdite une IA présentant « une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes ». Figurent dans cette catégorie les systèmes « qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (…) et des systèmes qui permettent la notation sociale par les États ».

Parmi les IA présentant un « haut risque » figurent celles utilisées « dans l'éducation ou la formation professionnelle, qui peuvent déterminer l'accès à l'éducation et le parcours professionnel d'une personne (par exemple, la notation d'épreuves d'examens) », « dans le domaine de l'emploi, de la gestion de la main-d'œuvre et de l'accès à l'emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement) ». Ces IA à « haut risque » devront se conformer à des obligations strictes tels que des « systèmes adéquats d'évaluation et d'atténuation des risques », une « qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire », un « enregistrement des activités afin de garantir la traçabilité des résultats », des « informations claires et adéquates à l'intention de l'utilisateur » ou encore un « contrôle humain approprié pour réduire au minimum les risques ».

Une troisième catégorie d’IA, dite à « risque limité », comprend les systèmes « auxquels s'appliquent des obligations spécifiques en matière de transparence ». Les utilisateurs qui interagissent avec un chatbot doivent être informés qu’ils sont face à une machine et pouvoir décider « en connaissance de cause » de continuer ou pas les échanges. La dernière catégorie d’IA, dite à « risque minime », recouvre les systèmes comme les jeux vidéo ou les filtres anti-spam. Le projet de règlement de la Commission européenne ne prévoit aucune intervention dans ce domaine, estimant que ces dispositifs ne présentent qu’un risque minime pour les droits ou la sécurité des citoyens.

 

Auteur

  • Gilmar Sequeira Martins