TECH NEWS
La gouvernance de l’IA, un enjeu clé pour les acteurs du secteur financier
Face à l’arrivée massive de l’intelligence artificielle dans les métiers financiers, les institutions luxembourgeoises doivent conjuguer innovation et maîtrise des risques.
November 26, 2025

Dans un environnement réglementaire dense — CSSF, BCE, AI Act, DORA, GDPR — la gouvernance devient indispensable pour garantir transparence, sécurité et conformité. Pour Michel Goffin, Territory Director Belgium, Germany & Luxembourg chez AmeXio, les plateformes conçues nativement autour de la gouvernance, comme watsonx.governance, constituent aujourd’hui un levier essentiel pour déployer l’IA de manière maîtrisée, auditée et durable.
Face à l’essor fulgurant de l’intelligence artificielle, les acteurs financiers doivent trouver le moyen de tirer avantage de la technologie dans un cadre fortement réglementé, tout en ayant conscience des dangers qu’elle introduit. « L’arrivée massive de l’IA dans tous les métiers – scoring, KYC, AML, fraude, trading – amplifie les risques : fuite de données, biais, décisions automatisées non maîtrisées et dépendance à des modèles opaques », commente Michel Goffin, Territory Director Belgium, Germany & Luxembourg chez AmeXio. « Dans le contexte réglementaire actuel, entre les exigences de la CSSF et de la BCE, et celles définies au niveau du cadre européen avec l’AI Act, DORA ou le GDPR, la mise en œuvre de solutions d’IA implique une gouvernance robuste. Celle-ci n’est plus une option : elle est même indispensable pour répondre aux enjeux de traçabilité, d’explicabilité et de confidentialité. »
Une mise en œuvre « à haut risque »
Les risques, eux, ne sont pas anodins. Le secteur financier traite des données sensibles dans le cadre d’opérations tout aussi sensibles. Dans ce contexte, la moindre erreur, le plus petit biais ou encore une hallucination générée par l’IA peut avoir un impact opérationnel, réglementaire ou réputationnel considérable. La mise en œuvre de ces technologies, notamment sur des sujets particuliers — comme l’évaluation des conditions d’octroi d’un financement — implique de prendre un ensemble de précautions.
« Vis-à-vis des risques de conformité, l’AI Act, par exemple, classe les modèles utilisés pour le crédit, l’AML ou la fraude comme étant à “haut risque”. De telles applications nécessitent documentation, registres, contrôles et explicabilité », explique Michel Goffin. « On peut aussi évoquer les risques liés aux données : fuite accidentelle vers des services externes, non-respect du GDPR, mauvaise qualité des données menant à des décisions erronées. À cela s’ajoutent les risques opérationnels : dépendance à des modèles “boîte noire”, indisponibilité d’un fournisseur SaaS ou intégration fragile dans le SI. Enfin, les risques éthiques et réputationnels — décisions injustifiées, biais, refus de prêt non explicables — peuvent altérer la confiance du client, pourtant essentielle en finance. »
L’importance d’une gouvernance robuste
Mettre en œuvre des solutions d’intelligence artificielle implique de mettre en place une gouvernance solide. « À travers elle, l’entreprise va définir les outils autorisés, les données utilisables, les processus de validation et les obligations de documentation », commente Michel Goffin. « Elle vise aussi à éviter que des collaborateurs utilisent des modèles externes qui réutilisent ou réhébergent les données, comme certains services américains dont les conditions générales autorisent l’entraînement sur les données clients. »
Une gouvernance solide apporte également des garanties de traçabilité et d’explicabilité, met en place des procédures de contrôle humain et de gestion des risques tout au long du cycle de vie des modèles. Enfin, elle permet d’aligner les pratiques internes avec les exigences de la CSSF, du GDPR et de l’AI Act. Sans cette discipline, l’IA devient un risque systémique plutôt qu’un levier de performance.
Watsonx, une plateforme construite autour de la gouvernance
Dans l’optique de soutenir les acteurs du secteur financier dans une mise en conformité de l’IA, la plateforme watsonx d’IBM a été conçue dès l’origine en tenant compte de ces enjeux de gouvernance. À côté de watsonx.orchestrator, qui permet d’orchestrer l’utilisation des modèles et des traitements opérés grâce à l’intelligence artificielle, le module watsonx.governance assure la supervision des risques et de la conformité réglementaire. L’entreprise peut ainsi définir et veiller à la bonne gouvernance de ses solutions IA de bout en bout.
Une approche robuste et centralisée
« L’environnement proposé est AI Act-ready. Il intègre un registre des modèles, met en œuvre une documentation automatique, assure une traçabilité complète, une gestion des risques et un contrôle des données », explique Michel Goffin. « Il est possible de gérer de manière unifiée les modèles traditionnels, les LLM et les modèles open source ou externes. Il garantit le respect des règles configurées, par exemple l’interdiction d’utiliser des modèles externes pour la vérification de données KYC ou sensibles. Toute activité est loguée, auditée, exportable pour la CSSF ou la BCE. Cette approche centralisée et cohérente couvre l’ensemble des exigences réglementaires des banques, assurances, PSF et fonds luxembourgeois. »
L’explicabilité intégrée
Au-delà, au niveau de watsonx.orchestrator, l’explicabilité est intégrée. « Le système est en mesure d’expliquer comment l’IA est arrivée aux résultats proposés, à partir de quelles données ou sources », assure l’expert d’AmeXio. « Cela répond directement aux exigences de robustesse, d’équité et de traçabilité du cadre européen. »
Déployer l’IA de manière conforme
Une telle solution facilite la gestion des contraintes de conformité, au départ d’une gouvernance précise, claire et directement applicable. « La force de watsonx est d’offrir une gouvernance intégrée, cohérente et complète, couvrant tout le cycle de vie des modèles », résume Michel Goffin. « Les PSF, banques, assurances et fonds peuvent ainsi déployer l’IA, on-premise ou à partir d’un environnement contrôlé, en respectant pleinement les règles AI Act, GDPR, DORA et CSSF, tout en conservant la maîtrise des données. »