DIGITAL BUSINESS

Les clés pour construire la confiance dans l’intelligence artificielle

L’intelligence artificielle est appelée à transformer en profondeur nos modes de travail et les organisations. Les entreprises qui souhaitent assurer une adoption durable de cette technologie doivent veiller à soutenir la confiance dans les solutions, l’éthique et la transparence liées à son utilisation.

December 17, 2024

 « Si l’IA, et plus spécifiquement l’IA générative, suscite un réel enthousiasme, son adoption et utilisation soulève de nombreuses questions, liées notamment à des considérations éthiques », commente Jérémy Combe, Senior Data Scientist au sein de Sogeti Luxembourg, une société du groupe Capgemini. En effet, rares sont les technologies à avoir suscité autant de questions, de doutes, de craintes. « La dimension « boîte noire » liée à la technologie, le fait que l’utilisateur ne soit pas en mesure d’expliquer comment elle est parvenue à un résultat, y est sans doute pour beaucoup, poursuit l’expert. La mise en œuvre de ces technologies soulève aussi de nombreuses interrogations relatives à la sécurité de l’information et des données que sont amenées à traiter les outils ou encore à la fiabilité des résultats dans le temps, à la reproduction de biais. Il apparaît dès lors essentiel de pouvoir garantir la confiance des utilisateurs dans ces outils. »

Cette confiance repose notamment sur des solutions concrètes qui intègrent des cadres de gestion de risques et de transparence. « Chez Sogeti, nous avons développé des solutions qui incarnent pleinement le concept de Trust AI », explique Jérémy Combe. « Grâce à la mise en œuvre efficace de garde-fous et d’un cadre AI TriSM (Trust Risk Information Security Management), nous sommes en mesure de garantir le contrôle et la conformité des résultats générés par l’IA Générative. Par exemple, notre solution Gen AI Amplifier permet de produire des résultats fiables en posant les bonnes questions. En s’appuyant sur des prompts préconstruits et sur notre TMAP® Body of Knowledge, nous générons des sorties cohérentes et dignes de confiance. »

Au sein de Sogeti, soutenir la confiance dans l’IA est une priorité stratégique. La société s’engage à construire des solutions qui respectent les droits des utilisateurs, sécurisent les données et restent alignées sur les valeurs sociétales.

  1. Équité et transparence, les deux piliers d’une IA éthique

« Les modèles d’IA apprennent à partir de vastes ensembles de données, souvent complexes. Or, si ceux-ci reflètent involontairement des biais sociaux, l’IA pourrait les reproduire et même les renforcer, commente Jérémy Combe. Afin d’assurer l’équité dans les résultats produits, il est important de veiller à réduire activement les biais dans les données et les modèles. » On peut par exemple imaginer les effets délétères d’une IA biaisée qui serait amenée à déterminer le droit ou non d’un client d’une banque à accéder à un financement.

Pour éviter cela, des techniques existent, telles que les audits de partialité, les tests d’équité et la représentation diversifiée dans les ensembles de données. « Il est aussi essentiel de permettre aux utilisateurs de comprendre comment les décisions sont prises. Une utilisation transparente de l’IA implique d’être conscient des processus qui sous-tendent les réseaux neuronaux complexes et de pouvoir les expliquer », poursuit Jérémy Combe. On peut, de cette manière, réduire la perception de « boîte noire » et renforcer la confiance dans les outils.

  1. Veiller à une utilisation qui garantit la sécurité des données

Le recours à des systèmes d’IA peut poser des problèmes de sécurité, notamment en ce qui concerne la confidentialité des données et la vulnérabilité aux cybermenaces. « Les solutions d’IA générative publiques, par exemple, se perfectionnent en permanence au départ de la donnée avec laquelle on la sollicite. Potentiellement, si on confie à l’une d’elles le traitement d’opérations au départ de données confidentielles, comme des noms de clients ou des numéros de carte de crédit, la solution pourrait les réutiliser pour d’autres requêtes, commente Jérémy Combe. Il est dès lors essentiel de prendre des mesures pour chiffrer les données sensibles afin de les protéger de tout accès non autorisé. Et si l’on souhaite utiliser de telles données pour l’entraînement de l’IA, il faut veiller à les anonymiser. »

Vis-à-vis des systèmes de GenAI, afin de prévenir des tentatives visant à les corrompre, il est essentiel de prendre des mesures de cybersécurité robustes. Dès la conception des modèles et solutions, il est utile de penser à la protection de la vie privée, notamment au moment du choix de l’architecture.

  1. S’assurer de la fiabilité des résultats

« Une IA digne de confiance doit être fiable, produire des résultats cohérents et significatifs, et permettre aux utilisateurs de s’y fier, poursuit Jérémy Combe. Il en va de la responsabilité des organisations, surtout lorsque les décisions de l’IA affectent directement la vie des utilisateurs. Dès lors, des tests rigoureux et la mise en œuvre de procédures garantissant la précision, la cohérence et l’absence de biais ou de toxicité dans les performances du modèle doivent être mis en place. »

Ces contrôles réguliers permettront notamment de veiller à la pertinence des résultats fournis par l’IA, à leur compréhension. On peut alors mieux se rendre compte des écarts entre les réponses fournies par l’IA et celles attendues, afin de corriger ou améliorer le modèle. « Il est en outre important de définir des responsabilités claires au sein de l’organisation, notamment au niveau des secteurs réglementés, afin d’assurer la supervision et le contrôle de l’IA », ajoute encore Jérémy Combe.

  1. Mettre en place des garde-fous

« Pour éviter des résultats nuisibles, biaisés ou offensants produits par l’IA, il faut donc mettre en place des garde-fous, ajoute Jérémy Combe. Cela passe par la validation et le filtrage des entrées, des éléments essentiels pour empêcher que des contenus inappropriés ou malveillants influencent les sorties de l’IA. » Mais on peut aussi penser à des contrôles en temps réel, tels que la détection de la toxicité ou des biais, afin de garantir la qualité et la sécurité du contenu généré. Des mécanismes de sécurité centrés sur l’utilisateur, comme les avertissements ou la possibilité de signaler des problèmes, viendront renforcer la transparence et la sûreté des interactions.

  1. Accompagner l’évolution de l’IA

L’évolution rapide de l’IA nécessite une surveillance et des mises à jour constantes pour maintenir la fiabilité. « En mettant en œuvre des cadres de surveillance continue et en s’adaptant à l’évolution de la technologie, les organisations peuvent réagir de manière proactive aux nouveaux problèmes d’éthique, de sécurité ou de performance des systèmes d’IA », ajoute encore Jérémy Combe.

Un engagement collectif

On le comprend, le déploiement de l’IA dans l’organisation n’a rien de magique. « Maintenir la confiance nécessite un engagement collectif en faveur de pratiques de développement éthiques, fiables et sûres, assure le Senior Data Scientist. L’instauration de la confiance dans l’IA permet non seulement de protéger les utilisateurs et de s’aligner sur les attentes réglementaires, mais aussi d’encourager une réception sociétale plus positive de la technologie de l’IA. »

Au départ du Luxembourg, qui affiche des ambitions fortes en la matière, Sogeti s’engage pleinement au service d’une mise en œuvre et d’une adoption éthiques de la technologie.

Watch video

In the same category