La prolifération des fake news sur les plateformes numériques pose des défis majeurs en termes de responsabilité et de conformité. Le Digital Services Act (DSA) européen impose désormais des obligations renforcées aux très grandes plateformes en ligne concernant la modération des contenus et la lutte contre la désinformation. Ces acteurs doivent mettre en place des systèmes de détection et de signalement des fausses informations, tout en respectant la liberté d'expression.
Les plateformes ont une obligation de moyens, et non de résultats, dans la lutte contre les fake news. Elles doivent déployer des ressources humaines et technologiques appropriées pour :
- Détecter et retirer rapidement les contenus manifestement illicites
- Mettre en place des procédures de signalement efficaces
- Coopérer avec les fact-checkers et autorités compétentes
- Former leurs équipes de modération
- Assurer la transparence de leurs actions
La conformité aux obligations réglementaires implique pour les plateformes de :
- Documenter leurs processus de modération
- Réaliser des évaluations des risques
- Produire des rapports de transparence
- Mettre en place une gouvernance dédiée
- Prévoir des voies de recours pour les utilisateurs
• Établir une cartographie des risques spécifique à la désinformation
• Formaliser les procédures de détection et traitement des fake news
• Mettre en place des KRI et reporting dédiés
• Former les équipes aux enjeux de la désinformation
• Documenter la traçabilité des actions de modération
Inscrivez-vous et accèdez à l’ensemble de l’actualité GRACES.Community.