L'administration Biden-Harris vient d'annoncer un cadre réglementaire historique visant à encadrer le développement et la diffusion des technologies d'intelligence artificielle avancées. Cette initiative s'inscrit dans une volonté de garantir un déploiement responsable de l'IA tout en préservant la sécurité nationale et la compétitivité américaine.
Cette réglementation, pilotée par le Bureau of Industry and Security (BIS), établit des contrôles spécifiques sur les modèles d'IA les plus sophistiqués, notamment ceux présentant des capacités potentiellement dangereuses en matière de cybersécurité, de désinformation ou de conception d'armes.
Le cadre réglementaire s'articule autour de plusieurs axes majeurs :
- L'établissement d'un système de licences pour l'exportation des modèles d'IA les plus avancés
- La mise en place d'évaluations obligatoires des risques pour les développeurs d'IA
- Le renforcement des contrôles sur le partage des données d'entraînement sensibles
- L'instauration d'obligations de transparence sur les capacités des systèmes d'IA
Les organisations développant ou utilisant des technologies d'IA devront :
- Mettre en place des processus d'évaluation et de documentation des risques
- Renforcer leurs dispositifs de contrôle interne et de gouvernance de l'IA
- Former leurs équipes aux nouvelles exigences réglementaires
- Adapter leurs politiques de conformité et de gestion des risques
• Réaliser une cartographie des systèmes d'IA utilisés et évaluer leur niveau de criticité au regard du nouveau cadre réglementaire
• Mettre à jour les procédures de contrôle interne pour intégrer les nouvelles exigences en matière d'IA
• Développer un programme de formation spécifique pour les équipes impliquées dans le développement et l'utilisation de l'IA
• Renforcer la documentation et la traçabilité des évaluations de risques liées à l'IA
• Établir une veille réglementaire dédiée aux évolutions du cadre normatif de l'IA
Inscrivez-vous et accèdez à l’ensemble de l’actualité GRACES.Community.