TECH NEWS

Dell Technologies bouscule les mythes liés à la sécurité de l’IA

During Cybersecurity Awareness Month, Dell Technologies focuses on a key challenge: securing AI systems.

October 14, 2025

Alors que le Mois de la Sensibilisation à la Cybersécurité met en lumière les défis évolutifs du paysage numérique actuel, Dell Technologies se concentre sur un sujet critique et actuel : la sécurisation des systèmes d’intelligence artificielle.

L’adoption de l’intelligence artificielle (IA) s’accélère, avec 24,7 % des entreprises belges utilisant déjà l’IA dans leurs opérations1. Cependant, à mesure que l’utilisation de l’IA s’étend, les défis liés à sa cybersécurité augmentent également. Des cyberattaques récentes en Belgique ont engendré des perturbations significatives, soulignant ainsi la nécessité d’une cyber résilience renforcée. Et les chiffres le confirment : des recherches montrent que 38 % des organisations belges ont déjà subi des impacts liés à des attaques contre leurs fournisseurs et prestataires de services2.

Ces développements soulignent l’importance critique pour les entreprises de prioriser la cybersécurité lors de l’adoption de l’IA. Cependant, la confusion et les idées fausses concernant la sécurisation des systèmes d’IA compliquent souvent la tâche des organisations. Pour cela, Dell Technologies déconstruit quatre mythes courants sur la sécurité de l’IA et propose des mesures pratiques pour renforcer la résilience.

Pourquoi est-ce important ?

À une époque où l’IA révolutionne les industries, les entreprises doivent également faire face à ses risques. Les idées reçues sur la sécurité de l’IA rendent les organisations vulnérables face à des menaces cyber croissantes.

“La sécurité de l’IA n’est pas simplement un défi technologique ; c’est un changement de mentalité. En combinant des stratégies fondamentales de cybersécurité avec des défenses spécifiques à l’IA, nous pouvons transformer les vulnérabilités en forces,” explique Adriaan van Geyt, Datacenter Sales Manager chez Dell Technologies. “Sécuriser l’IA est possible dès lors que les entreprises privilégient la résilience, la collaboration et des mesures proactives.”

 

Mythe 1 : Les systèmes d’IA sont trop complexes pour être sécurisés

Réalité : La sécurisation des systèmes d’IA est réalisable grâce à des pratiques de cybersécurité rigoureuses adaptées aux menaces spécifiques à l’IA.
  • Impliquer les équipes de sécurité dès la phase de conception des systèmes d’IA pour intégrer les considérations de sécurité dès le départ.
  • Mettre en œuvre les principes de Zero Trust, notamment une gestion robuste des identités, des contrôles d’accès basés sur les rôles et des méthodes de vérification continue.
  • Développer des politiques de gestion des données bien définies, incluant des contrôles d’accès et des stratégies de sauvegarde robustes, pour protéger les informations critiques.
  • Établir des garde-fous solides pour atténuer les risques comme les injections de commandes, les violations de politiques ou les erreurs dans les sorties de l’IA.

 

Mythe 2 : Aucun outil existant ne peut sécuriser l’IA

Réalité : Les systèmes d’IA peuvent être sécurisés en optimisant les investissements et stratégies de cybersécurité existants.
  • Adapter les outils actuels aux charges de travail spécifiques à l’IA – par exemple, en consignant et en auditant les entrées et sorties des Large Language Models (LLM) pour détecter des anomalies ou des activités malveillantes.
  • Évaluer dans quelle mesure les architectures de cybersécurité actuelles couvrent déjà les systèmes d’IA et définir les capacités supplémentaires nécessaires, comme la surveillance des sorties ou la gestion des processus décisionnels.
  • Utiliser des outils existants tels que la gestion des identités, la segmentation du réseau et la protection des données pour sécuriser les charges de travail liées à l’IA, sans repartir de zéro.

 

Mythe 3 : Sécuriser l’IA revient seulement à protéger les données

Réalité : Bien que la protection des données d’entrée et de sortie soit cruciale, sécuriser l’écosystème numérique global est tout aussi essentiel.

  • Les passerelles API vers les systèmes d’IA doivent être protégées par des mesures d’authentification robustes pour bloquer les accès non autorisés.
  • Les vulnérabilités des terminaux, des chaînes d’approvisionnement et des pipelines de données – souvent exploitées par les attaquants – nécessitent une surveillance continue et des mesures d’atténuation des risques.
  • Se protéger contre les attaques manipulant les entrées des LLM en appliquant des politiques de conformité et en surveillant les sorties pour garantir des réponses sûres et précises.

Élargir le champ d’action au-delà des données garantit un environnement IA plus robuste et résilient.

 

Mythe 4 : L’IA agentique remplacera finalement la gouvernance humaine

Réalité : Même les systèmes d’IA autonomes nécessitent une gouvernance pour garantir leur alignement avec des normes éthiques et des valeurs humaines.

  • Définir des limites claires pour les systèmes d’IA, assorties de contrôles permettant de prévenir tout comportement non souhaité ou non éthique.
  • Insérer une supervision humaine dans les processus, particulièrement pour les décisions critiques, afin d’assurer la responsabilité et la transparence.
  • Mener des audits réguliers et des tests de résistance pour conserver la confiance et gérer les risques liés aux opérations utilisant l’IA.

Même les technologies d’IA les plus avancées fonctionnent mieux lorsqu’elles sont guidées par un jugement humain.

 

Une approche moderne et proactive de la cybersécurité de l’IA

Les cyberattaques basées sur l’IA évoluent rapidement, introduisant de nouveaux défis comme le spear-phishing, les ransomwares et les failles zero-day. Pourtant, sécuriser les systèmes d’IA est réalisable en adaptant des principes éprouvés de cybersécurité pour répondre aux risques spécifiques à l’IA.

 

Les organisations peuvent renforcer leur résilience en :

  • Adoptant des cadres Zero Trust adaptés aux environnements IA.
  • Optimisant les outils existants pour gérer les risques liés à l’IA sans investissements superflus.
  • Développant des plans solides de récupération pour assurer la continuité après des incidents.

En intégrant la sécurité dès le début de l’adoption de l’IA, les entreprises peuvent exploiter pleinement le potentiel de l’IA tout en gérant efficacement les menaces émergentes.

1 https://www.acerta.be/en/inspiration/using-artificial-intelligence-in-the-workplace-belgian-companies-in-top-3-in-europe
Watch video

In the same category