Depuis le mois de mars, le digital connait une véritable accélération dans le monde des entreprises qui ont dû s’adapter en un temps record. Véritable opportunité pour le secteur de l’intelligence artificielle, cette crise porte un secteur qui a le vent en poupe depuis quelques années déjà. Cette « révolution technologique » facilite les échanges d’information, accélère les opérations et permet d’optimiser le travail des salariés.
Cela n’est pas sans risque pour les entreprises, notamment d’un point de vue compliance. Bien entendu, on pense aux données personnelles. Le RGPD est arrivé « comme un cheveu sur la soupe » dans l’agenda des responsables compliance et des DSI qui avaient déjà fort à faire avec les réglementations financières. La complexité des systèmes d’information rend d’ailleurs cette opération particulièrement difficile à mener. On a observé depuis une vingtaine d’années une course à la data, course non maitrisée qui peut parfaitement se retourner contre le responsable des données et de leurs traitements que ce soit à cause de failles, de piratage ou même d’une incapacité à traiter les questions et réclamations des personnes concernées par ces traitements.
A cela s’ajoute la superposition d’outils d’intelligence artificielle plus ou moins transparents et plus ou moins performants souvent eux aussi non maitrisés par les entreprises. Le RGPD prévoyait déjà une réglementation à ce sujet pour les outils prenant des décisions ayant des conséquences juridiques pour les personnes (accorder ou refuser un prêt, accepter ou refuser une candidature pour un poste…). Dans ce cas-là, l’entreprise doit proposer une alternative humaine à l’IA. Avec la requalification d’outils d’IA dans la santé en « dispositif médical [1]», avec le développement d’outils de pricing pouvant pratiquer des ententes sur les prix[2] ainsi que la découverte de biais raciaux et/ou sexistes dans ces outils portant atteinte au principe de non-discrimination,[3] la réglementation applicable à l’IA croît de jour en jour. Ces risques se démultiplient dès que l’activité de l’entreprise est internationale.
Connaitre ces outils, comprendre comment fonctionne l’IA est indispensable pour assurer une démarche de compliance satisfaisante. Toutes ces entreprises qui deviennent aujourd’hui « data driven » doivent absolument prendre la mesure des risques qu’ils font porter sur le respect des normes. Ce n’est jamais tout à fait neutre et l’intervention d’un spécialiste à la fois de la technologie et de la compliance est souvent indispensable (à défaut il est tout à fait possible d’initier ses équipes de compliance aux nouvelles technologies).
L’IA est encore une technologie émergeante. Les premiers usages visaient à optimiser le retour sur investissement (avec des ROI promis parfois supérieurs à 400%, il y a de quoi faire rêver n’importe quel CFO). C’est dans la finance et les assurances que la technologie s’est la plus épanouie avant de s‘étendre au marketing, au pricing et aux RH. La compliance commence à voir l’arrivée de certains outils d’IA pour accompagner ses équipes.
En matière de due dilligence, la quantité de données à traiter rend l’humain faillible. La machine dispose d’un véritable avantage sur nous en la matière et le nombre d’outils d’IA à disposition des compliance officers et juristes pour lutter contre la fraude se multiplient. Cet usage peut d’ailleurs s’étendre aux activités « normales » de l’entreprise en analysant les activités des salariés notamment ou en assurant une veille sur les fournisseurs ou les pays dans lesquels on travaille. L’homme est capable d’extrapoler beaucoup à partir de peu d’informations alors que la machine est capable d’analyser une grande quantité de données. En combinant ces deux facultés, il est vraiment possible de limiter le risque auquel s’expose l’entreprise.
Ainsi, aujourd’hui dans les services de compliance, on est souvent débordés par les alertes lancés par les salariés dans le cadre de la lutte contre la corruption par exemple. Or, la plupart des alertes s’avèrent non pertinentes voire calomnieuses. Certains outils d’IA permettent ainsi de chercher le pattern commun entre toutes les alertes fondées et donc de prioriser leur traitement. Ces informations pourront d’ailleurs être retransmises aux CCO dans un dashboard intelligent capable de distinguer les urgences des affaires courantes.
Finalement, c’est une prise de conscience qui doit arriver chez les CCO. Les adversaires de la compliance savent parfaitement exploiter les forces et les failles des technologies. Il est temps que l’on impose une formation aux responsables qui doivent gérer les risques de l’entreprise : dans l’intérêt de leur employeur mais aussi pour eux-mêmes puisqu’une fois bien exploitée, la tech est un véritable atout dans la main de celui qui la maitrise.
Proposer une offre de job :
Consulter les offres qui vous correspondent :
Inscrivez-vous et accèdez à l’ensemble de l’actualité GRACES.Community.