De nouvelles règles et actions en faveur de l'excellence et de la confiance dans l'intelligence artificielle

Christophe BARDY - GRACES community
22/7/2022
Propulsé par Virginie
Cet article est réservé aux membres GRACES.community

La Commission propose de nouvelles règles et actions visant à faire de l'Europe le pôle mondial d‘une intelligence artificielle (IA) digne de confiance.

La combinaison du tout premier cadre juridique sur l'IA et d'un nouveau plan coordonné avec les États membres garantira la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l'adoption de l'IA, les investissements et l'innovation dans l'ensemble de l'UE. Cette approche sera complétée par de nouvelles règles concernant les machines, qui visent à accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits en adaptant les dispositions relatives à la sécurité.

Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère du numérique, a déclaré à ce propos : «En matière d'intelligence artificielle, la confiance n'est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l'UE. À l'épreuve du temps et propices à l'innovation, nos règles s'appliqueront lorsque c'est strictement nécessaire: quand la sécurité et les droits fondamentaux des citoyens de l'Union sont en jeu.»

Thierry Breton, commissaire chargé du marché intérieur, s'est exprimé en ces termes : «L'IA est un moyen, et non une fin. Elle existe depuis plusieurs décennies, mais ses capacités se sont considérablement développées avec l'accroissement de la puissance de calcul. Cela offre un énorme potentiel dans des secteurs aussi divers que la santé, les transports, l'énergie, l'agriculture, le tourisme ou la cybersécurité. Cela comporte aussi un certain nombre de risques. Les propositions présentées aujourd'hui visent à conforter la position de l'Europe en tant que pôle mondial d'excellence dans le domaine de l'IA, du laboratoire au marché, à faire en sorte que, en Europe, l'IA respecte nos valeurs et nos règles et à exploiter son potentiel à des fins industrielles.»

Le nouveau règlement sur l'IA garantira aux Européens qu'ils peuvent faire confiance à l'IA. Des règles proportionnées et souples, prévues pour faire face aux risques spécifiques liés aux systèmes d'IA constitueront l'ensemble de normes le plus strict au monde. Le plan coordonné décrit les réorientations et les investissements qui seront nécessaires au niveau des États membres pour renforcer la position de premier plan de l'Europe dans le développement d'une IA centrée sur l'humain, durable, sûre, inclusive et digne de confiance.

L'approche européenne pour une IA digne de confiance

Les nouvelles règles, fondées sur une définition de l'IA à l'épreuve du temps, seront directement applicables dans tous les États membres. Elles suivent une approche fondée sur les risques:

Risque inacceptable: Les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États.

Risque élevé: Parmi les systèmes d'IA considérés comme à haut risque, on peut citer:

  • les technologies d'IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens;
  • les technologies d'IA utilisées dans l'éducation ou la formation professionnelle, qui peuvent déterminer l'accès à l'éducation et le parcours professionnel d'une personne (par exemple, la notation d'épreuves d'examens);
  • les technologies d'IA utilisées dans les composants de sécurité des produits (par exemple, l'application de l'IA dans la chirurgie assistée par robot);
  • les technologies d'IA utilisées dans le domaine de l'emploi, de la gestion de la main d'œuvre et de l'accès à l'emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement);
  • les technologies d'IA utilisées dans les services privés et publics essentiels (par exemple, l'évaluation du risque de crédit, qui prive certains citoyens de la possibilité d'obtenir un prêt);
  • les technologies d'IA utilisées dans le domaine du maintien de l'ordre, qui sont susceptibles d'interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve);
  • les technologies d'IA utilisées dans le domaine de la gestion de la migration, de l'asile et des contrôles aux frontières (par exemple, la vérification de l'authenticité des documents de voyage);
  • les technologies d'IA utilisées dans les domaines de l'administration de la justice et des processus démocratiques (par exemple, l'application de la loi à un ensemble concret de faits).

Les systèmes d'IA à haut risque devront être conformes à obligations strictes pour pouvoir être mis sur le marché:

  • systèmes adéquats d'évaluation et d'atténuation des risques;
  • qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire;
  • enregistrement des activités afin de garantir la traçabilité des résultats;
  • documentation détaillée fournissant toutes les informations nécessaires sur le système et sur sa finalité pour permettre aux autorités d'évaluer sa conformité;
  • informations claires et adéquates à l'intention de l'utilisateur;
  • contrôle humain approprié pour réduire au minimum les risques;
  • niveau élevé de robustesse, de sécurité et d'exactitude.

En particulier, les systèmes d'identification biométrique à distance fondés sur l'IA sont considérés comme à haut risque et sont donc soumis à des exigences strictes. Leur utilisation en temps réel dans l'espace public aux fins du maintien de l'ordre est en principe interdite. Il existe des exceptions restreintes à ce principe, qui sont strictement définies et réglementées (par exemple, lorsque cela est strictement nécessaire pour rechercher un enfant disparu, prévenir une menace terroriste spécifique et imminente ou détecter, localiser, identifier ou poursuivre l'auteur ou le suspect d'une infraction pénale grave). L'utilisation de ces systèmes doit alors être autorisée par une instance judiciaire ou un autre organe indépendant et est soumise à des limitations appropriées concernant la durée, la portée géographique et les bases de données consultées.

Risque limité, c'est-à-dire les systèmes d'IA auxquels s'appliquent des obligations spécifiques en matière de transparence: Lorsqu'ils utilisent des systèmes d'IA tels que des chatbots, les utilisateurs doivent savoir qu'ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non.

Risque minime: La proposition législative autorise l'utilisation libre d'applications telles que les jeux vidéo ou les filtres anti-spam reposant sur l'IA. La grande majorité des systèmes d'IA relèvent de cette catégorie. Le projet de règlement ne prévoit pas d'intervention dans ce domaine, car ces systèmes ne représentent qu'un risque minime, voire nul, pour les droits ou la sécurité des citoyens.

En ce qui concerne la gouvernance, la Commission propose que les autorités nationales compétentes de surveillance du marché veillent au respect des nouvelles règles dont la mise en œuvre sera facilitée par la création d'un comité européen de l'intelligence artificielle qui sera également chargé de stimuler l'élaboration de normes pour l'IA. En outre, la proposition prévoit des codes de conduite facultatifs pour les systèmes d'IA ne présentant pas de risque élevé, ainsi que des «bacs à sable réglementaires» afin de faciliter l'innovation responsable.

L'approche européenne pour l'excellence dans le domaine de l'IA

La coordination renforcera la position de premier plan de l'Europe en matière d'IA centrée sur l'humain, durable, sûre, inclusive et digne de confiance. Pour préserver la compétitivité européenne sur les marchés mondiaux, la Commission est déterminée à encourager l'innovation dans les domaines du développement et de l'utilisation des technologies de l'IA dans l'ensemble des secteurs économiques et dans tous les États membres.

Publié en 2018 pour définir des actions et des instruments de financement en faveur du développement et l'adoption de l'IA, le premier plan coordonné dans le domaine de l'intelligence artificielle a créé un environnement dynamique de stratégies nationales et de financements de l'UE pour les partenariats public-privé et les réseaux de recherche et innovation. Le plan coordonné, qui a été totalement actualisé, propose des actions concrètes à mener en collaboration pour assurer la cohérence avec la stratégie européenne en matière d'AI et le pacte vert pour l'Europe, tout en tenant compte des nouveaux défis posés par la pandémie de coronavirus. Il défend une vision destinée à accélérer les investissements dans l'IA, ce qui peut profiter à la reprise. Il vise également à stimuler la mise en œuvre des stratégies nationales en matière d'IA, à éliminer la fragmentation et à relever les défis qui se posent au niveau mondial.

Le plan coordonné actualisé utilisera les fonds alloués au titre du programme pour une Europe numérique et d'Horizon Europe, ainsi que de la facilité pour la reprise et la résilience, qui prévoit de consacrer 20 % des dépenses au numérique, et des programmes relevant de la politique de cohésion pour:

  • créer les conditions propices au développement de l'IA et à son adoption par l'échange d'éclairages stratégiques, le partage de données et l'investissement dans des capacités de calcul critiques;
  • favoriser l'excellence en matière d'IA «du laboratoire au marché» en mettant en place un partenariat public-privé, en constituant et en mobilisant des capacités de recherche, de développement et d'innovation, et en mettant à la disposition des PME et des administrations publiques des installations d'essai et d'expérimentation ainsi que des pôles d'innovation numérique;
  • faire en sorte que l'IA soit au service des citoyens et constitue une force positive pour la société. Pour ce faire, il faut être à l'avant-garde du développement et du déploiement d'une IA digne de confiance, cultiver les talents et les compétences par la promotion des stages, des réseaux de doctorat et des bourses post-doctorales dans les disciplines numériques, intégrer la confiance dans les politiques en matière d'IA et promouvoir la vision européenne d'une IA durable et digne de confiance à l'échelle mondiale;
  • établir un leadership stratégique dans les secteurs et les technologies à fort impact, notamment l'environnement, en mettant l'accent sur la contribution qu'apporte l'IA à la production durable, mais aussi à la santé, en élargissant l'échange transfrontière d'informations, ainsi qu'au secteur public, à la mobilité, aux affaires intérieures et à l'agriculture, et à la robotique.

L'approche européenne concernant les nouveaux équipements et machines

L'expression «machines et équipements» couvre un large éventail de produits destinés aux particuliers ou aux professionnels allant des robots aux lignes de production industrielle en passant par les tondeuses à gazon, les imprimantes 3D et les engins de chantier. La directive «Machines»Rechercher les traductions disponibles de ce lienEN•••, qui sera remplacée par le nouveau règlement sur les machines et équipements, définissait des exigences en matière de santé et de sécurité dans le secteur des machines. Ce nouveau règlement relatif aux machines garantira que les machines de nouvelle génération offrent toute la sécurité requise aux utilisateurs et aux consommateurs et encouragera l'innovation. Alors que le règlement sur l'IA traitera des risques liés à la sécurité que présentent les systèmes d'IA, le nouveau règlement sur les machines garantira une intégration sûre des systèmes d'IA dans les machines. Les entreprises ne devront procéder qu'à une seule évaluation de la conformité.

En outre, le nouveau règlement sur les machines et équipements répondra aux besoins du marché en apportant une plus grande clarté juridique aux dispositions actuelles, en réduisant la charge administrative et les coûts pour les entreprises grâce à l'autorisation de la documentation au format numérique et en adaptant les frais d'évaluation de la conformité pour les PME, tout en garantissant la cohérence avec le cadre législatif de l'UE applicable aux produits.

Prochaines étapes

Le Parlement européen et les États membres devront adopter les propositions de la Commission relatives aux règles encadrant l'intelligence artificielle et aux machines et équipements dans le cadre de la procédure législative ordinaire. Une fois adoptés, les règlements seront directement applicables dans l'ensemble de l'UE. Parallèlement, la Commission continuera de collaborer avec les États membres à la mise en œuvre des actions annoncées dans le plan coordonné.

Contexte

Depuis des années, la Commission facilite et favorise la coopération en matière d'IA dans toute l'Europe afin de renforcer la compétitivité européenne et de garantir la confiance fondée sur les valeurs de l'UE.

À la suite de la publication de la stratégie européenne en matière d'intelligence artificielle en 2018 et après une large consultation des parties prenantes, le groupe d'experts de haut niveau sur l'intelligence artificielle a élaboré des lignes directrices pour une IA digne de confianceRechercher les traductions disponibles de ce lienEN••• en 2019, ainsi qu'une liste d'évaluation pour une IA digne de confiance en 2020. Parallèlement, le premier plan coordonné sur l'IA a été publié en décembre 2018 dans le cadre d'un engagement commun avec les États membres.

Le livre blanc de la Commission sur l'IA, publié en 2020, définit une vision claire de l'IA en Europe: un écosystème d'excellence et de confiance, qui jette les bases de la proposition présentée aujourd'hui. La consultation publique relative au livre blanc sur l'IA a attiré de nombreuses contributions provenant du monde entier. Le livre blanc était accompagné d'un «rapport sur les conséquences de l'intelligence artificielle, de l'internet des objets et de la robotique sur la sécurité et la responsabilité», qui concluait que la législation actuelle sur la sécurité des produits présente un certain nombre de lacunes qu'il convient de combler, notamment dans la directive «Machines».

p/o Virginie Gastine Menou

RISQUES ET VOUS

✍🏼 Proposer une offre de job : 

💈 Consulter les offres qui vous correspondent : 

Envie de lire la suite de l’article ?
Il vous reste 50% de l’article à lire
Inscrivez-vous sur GRACES.community pour profitez de toute l’actualité compliance
directement depuis votre espace Membre !
M'inscrire

Plus de 200 sociétés ont trouvé leur compliance officer avec GRACES.community,

et si c’était vous ?