UNION EUROPEENNE : Algorithmes discriminatoires: intelligence artificielle vs droits humains

Christophe BARDY - GRACES community
2/2/2021
Propulsé par Virginie
Cet article est réservé aux membres GRACES.community

Du suivi de la propagation de la COVID-19 à la détermination des bénéficiaires des prestations sociales, l’intelligence artificielle (IA) a une incidence sur la vie de millions d’Européens.

L’automatisation peut améliorer la prise de décision. Mais l’IA peut conduire à des erreurs, entraîner une discrimination et être difficile à contester. Un nouveau rapport de l’Agence des droits fondamentaux de l’UE (FRA) révèle une certaine confusion quant à l’incidence de l’IA sur les droits des personnes, et ce même parmi les organisations qui l’utilisent déjà. La FRA invite les décideurs politiques à fournir davantage d’indications sur la manière dont les règles existantes s’appliquent à l’IA et à garantir que toute future loi en matière d’IA protège les droits fondamentaux.

«L’IA n’est pas infaillible, elle est créée par l’Homme, et les êtres humains peuvent faire des erreurs. C’est pourquoi il est important que les individus sachent quand l’IA est utilisée, comment elle fonctionne et comment contester les décisions automatisées. L’UE doit clarifier la manière dont les règles existantes s’appliquent à l’IA. Et les organisations doivent évaluer comment leurs technologies peuvent interférer avec les droits des personnes, tant dans le développement que dans l’utilisation de l’IA», déclare Michael O’Flaherty, directeur de la FRA. «Nous avons la possibilité de façonner une AI qui non seulement respecte nos droits humains et fondamentaux, mais qui les protège et les promeut également.»

Le rapport de la FRA intitulé «Getting the future right – Artificial intelligence and fundamental rights » (Bien préparer l’avenir : l’intelligence artificielle et les droits fondamentaux) identifie les pièges de l’utilisation de l’IA, par exemple dans la police prédictive, les diagnostics médicaux, les services sociaux et la publicité ciblée. Il invite l’UE et les pays de l’UE à:

- veiller à ce que l’IA respecte TOUS les droits fondamentaux - l’IA peut avoir une incidence sur de nombreux droits, et pas seulement sur la vie privée ou la protection des données. L’IA peut s’avérer discriminatoire, ou entraver l’action de la justice. Toute future législation en matière d’IA devra donc en tenir compte et créer des garanties efficaces;

- garantir que les individus puissent contester les décisions prises par une IA - les personnes doivent savoir quand et comment l’IA est utilisée, ainsi que comment et où introduire une plainte. Les organisations qui utilisent l’IA doivent pouvoir expliquer comment leurs systèmes prennent des décisions;

- évaluer l’IA avant et pendant son utilisation afin de réduire les effets négatifs - les organismes, aussi bien privés que publiques doivent évaluer comment l’IA pourrait porter atteinte aux droits fondamentaux;

- fournir davantage d’indications sur les règles relatives à la protection des données - l’UE doit clarifier davantage la manière avec laquelle les règles relatives à la protection des données s’appliquent à l’IA. Il est également nécessaire de mieux clarifier les implications de la prise de décision automatisée et le droit à un contrôle humain lorsqu’une IA est utilisée;

- évaluer si l’IA est discriminatoire – la prise de conscience du risque de discrimination par l’IA, et des répercussions qui en découlent, est relativement faible. Il faut augmenter le financement de la recherche pour étudier les effets potentiellement discriminatoires de l’IA afin que l’Europe puisse s’en prémunir;

- créer un système de supervision efficace – l’UE devrait investir dans un système plus «coordonné» afin de responsabiliser les entreprises et les administrations publiques lorsqu’elles utilisent l’IA. Les autorités doivent s’assurer que les organes de supervision disposent des ressources et des compétences nécessaires pour faire leur travail.

Le rapport s’inscrit dans le cadre du projet de la FRA sur l’intelligence artificielle et le big data s. Il s’appuie sur une centaine d’entretiens avec des organisations publiques et privées utilisant déjà l’IA. Il s’agit notamment d’observations des experts chargés de surveiller les éventuelles violations des droits fondamentaux. Son analyse se fonde sur les utilisations réelles de l’IA en Espagne, en Estonie, en Finlande, en France et aux Pays-Bas.

Le 14 décembre, la FRA et la Présidence allemande du Conseil de l’UE organisent une conférence intitulée «Doing AI the European way: (link is external) Protecting fundamental rights in an era of artificial intelligence (link is external)»(L’IA à la manière européenne : protection des droits fondamentaux à l’ère de l’intelligence artificielle).

p/o Virginie Gastine Menou

RISQUES ET VOUS

Proposer une offre de job :

Consulter les offres qui vous correspondent :

Envie de lire la suite de l’article ?
Il vous reste 50% de l’article à lire
Inscrivez-vous sur GRACES.community pour profitez de toute l’actualité compliance
directement depuis votre espace Membre !
M'inscrire

Plus de 200 sociétés ont trouvé leur compliance officer avec GRACES.community,

et si c’était vous ?