Insight

Radar des solutions de sécurité de l’IA 2025

Publié le 13 novembre 2025

  • Cybersécurité

En bref

  • Le marché de la sécurité IA arrive à maturité et se consolide avec plusieurs acquisitions majeures
  • Le nombre de solutions passe de 88 à 94, avec une nouvelle catégorie « AI Firewall & Response »
  • Les entreprises doivent choisir entre solutions spécialisées et sécurité IA intégrée au cloud
  • L’IA Agentique introduit des risques de sécurité plus larges et complexes

Radar des solutions de sécurité de l’IA 2025

Le marché de la sécurité de l’IA entre dans une nouvelle phase

Après une phase d’effervescence et d’exploration, le marché des solutions de sécurité de l’IA entre désormais dans une phase de consolidation. Le secteur voit émerger des dynamiques de maturité que nous avons captées à travers l’évolution de notre radar des solutions.

Depuis la publication de l’édition 2024 du radar des solutions de sécurité de l’IA, 5 acquisitions majeures ont eu lieu :

  • Cisco a acquis Robust Intelligence en septembre 2024
  • SAS a acquis Hazy en novembre 2024
  • H Company a acquis Mithril Security fin 2024
  • Nvidia a acquis Gretel en mars 2025
  • Palo Alto a annoncé son intention d’acquérir ProtectAI en avril 2025

Ces mouvements traduisent une volonté claire des grands acteurs de sécuriser leurs positions en absorbant des startups technologiques clés.

En parallèle, notre nouvelle cartographie recense 94 solutions, contre 88 dans l’édition d’octobre 2024. Quinze nouvelles solutions font leur entrée dans le radar, tandis que huit ont été retirées. Ces sorties s’expliquent principalement par des abandons ou des pivots stratégiques : certaines startups n’ont pas réussi à trouver leur marché, tandis que d’autres choisissent de réorienter leur positionnement, en capitalisant sur leur expertise en intelligence artificielle pour adresser des enjeux dépassant le cadre strict de la cybersécurité.

Enfin, un changement de paradigme s’opère : les solutions ne se limitent plus à un empilement de briques techniques, mais convergent vers des architectures de défense intégrées, conçues pour répondre durablement aux exigences des grandes organisations. L’interopérabilité, la scalabilité et l’alignement avec les besoins des grandes entreprises deviennent les nouveaux standards. La cybersécurité de l’IA s’affirme désormais comme une stratégie globale, et non plus comme une somme de réponses ponctuelles.

Pour refléter cette évolution, nous avons fait évoluer notre propre grille de lecture en créant une nouvelle catégorie, AI Firewall & Response, qui résulte de la fusion de nos catégories Machine Learning Detection & Response et Secure Chat/LLM Firewall.

Le meilleur ou l’essentiel ? Le dilemme de l’intégration

Avec l’intégration croissante de briques de sécurité IA dans les offres des principaux fournisseurs Cloud (Microsoft Azure, AWS, Google Cloud), une question stratégique émerge : Faut-il privilégier des solutions expertes ou s’appuyer sur les capacités natives des hyperscalers ?

  • Les solutions spécialisées offrent une profondeur technique et une couverture ciblée, en complément d’une sécurité existante.
  • Les briques intégrées sont plus faciles à déployer, interopérables avec l’infrastructure existante, et souvent suffisantes pour des usages standard.

Il ne s’agit pas ici de trancher, mais d’éclairer les possibilités. Voici un aperçu de certains leviers de sécurité activables via les offres des hyperscalers.

Cette approche va au-delà de la sécurité des données au repos ou en transit : elle vise à protéger les calculs en cours, grâce à l’utilisation d’enclaves sécurisées. Elle garantit un haut niveau de confidentialité tout au long du cycle de vie des modèles IA, des données sensibles ou des algorithmes propriétaires, en empêchant tout accès non autorisé.

IA agentique : un risque transversal, une sécurité distribuée

Parmi les tendances qui concentrent l’attention des experts en cybersécurité, l’IA agentique occupe une place croissante. Ces systèmes capables de prendre des décisions, de planifier des actions et d’interagir avec des environnements complexes cumulent en réalité deux types de vulnérabilités :

  • Celles des systèmes informatiques traditionnels avec lesquels l’IA va interagir plus ou moins bien
  • Et celles propres aux modèles d’IA et aux orchestrateurs d’agents associés

Résultat : une surface d’attaque élargie, et des conséquences potentiellement critiques. Mal configuré, un agent pourrait accéder à des fichiers sensibles, exécuter du code malveillant ou provoquer des effets de bord inattendus dans un environnement de production.

À cela s’ajoute un facteur nouveau majeur : l’émergence du Model Context Protocol (MCP), un standard en cours de diffusion qui permet aux LLM d’interagir de manière standardisée avec des outils et services tiers (mail, calendrier, drive…). S’il facilite la montée en puissance des agents, il introduit aussi de nouveaux vecteurs d’attaque :

  • Exposition ou vol de jetons d’authentification
  • Absence de mécanismes d’authentification des outils
  • Possibilité d’attaques par injection de prompt dans des contenus apparemment anodins
  • Ou encore compromission d’un serveur MCP donnant accès à l’ensemble des services connectés

Au-delà des failles techniques, l’imprévisibilité comportementale des agents pose un défi inédit. Parce que l’action découle directement d’une sortie de modèle IA, une erreur d’interprétation ou de planification peut entraîner une dérive majeure par rapport à l’intention initiale.

Dans ce contexte, la sécurisation de l’agentique ne relève pas d’une catégorie unique. Elle nécessite une couverture transversale, mobilisant toutes les briques de notre radar : évaluation de robustesse, monitoring, protection de la donnée, explicabilité, filtrage et gestion des risques.

Et c’est précisément ce que nous observons sur le marché : les premières réponses à la sécurisation de l’IA agentique ne viennent pas de nouveaux acteurs, mais de fonctionnalités additionnelles intégrées aux solutions existantes. Un enjeu émergent, certes, mais que les acteurs du marché commencent déjà à prendre en charge à travers des évolutions fonctionnelles intégrées aux solutions existantes.

Nos recommandations : quelles briques de sécurité IA implémenter en priorité ?

Au regard de l’évolution des menaces, de la complexité croissante des systèmes IA (notamment des agents) et de la diversité des solutions disponibles, nous recommandons de concentrer les efforts sur trois grandes catégories de sécurité, qui se complètent mutuellement.

Le monitoring des systèmes IA est devenu incontournable. En effet, une IA peut évoluer de manière imprévisible, se dégrader dans le temps, ou commencer à générer des réponses problématiques sans que cela soit immédiatement détecté. Ce point devient particulièrement critique avec les IA agentiques, dont les décisions autonomes peuvent entraîner des répercussions opérationnelles majeures en cas de dérive non maîtrisée.

Face à cette volatilité, il est essentiel de pouvoir détecter les signaux faibles en temps réel (tentatives de prompt injection, dérives comportementales, biais émergents, etc). C’est pourquoi il est préférable de s’appuyer sur des solutions expertes dédiées à la détection et à la réponse, qui disposent d’analyses spécifiques et de mécanismes d’alerte adaptés à ces menaces.

Conclusion : construire une stratégie de sécurité adaptée à l’IA

À mesure que l’intelligence artificielle s’intègre profondément dans les opérations des entreprises, la sécurisation des systèmes d’IA n’est plus une option, mais un impératif stratégique. L’évolution rapide des menaces, l’émergence de l’IA agentique et la complexité croissante des modèles imposent de passer d’une approche réactive à des stratégies de sécurité proactives et intégrées.

Les organisations doivent aller au-delà des approches fragmentées et adopter un cadre global qui combine tests de robustesse, surveillance continue et garanties éthiques. L’essor des architectures de défense intégrées et la convergence des domaines de la sécurité de l’IA témoignent d’un marché en pleine maturité, désormais prêt à soutenir des déploiements à l’échelle des entreprises.

Le défi est clair : trouver le bon équilibre entre outils spécialisés et capacités natives du cloud, assurer une couverture transversale cohérente et veiller à ce que les systèmes d’IA demeurent fiables, résilients et alignés sur les objectifs métiers.

 

 

We thank Anthony APRUZZESE for his valuable contribution to the writing of this article.

  • Gérôme Billois

    Partner – France, Paris

    Wavestone

    LinkedIn
  • Sleh-Eddine Choura

    Manager – France, Paris

    Wavestone

    Linkedin
  • Aliénor Fougerat

    Senior Consultant

    Wavestone

    LinkedIn
  • Yashveen Jootun

    Consultant – France, Paris

    Wavestone

    Linkedin