🇺🇸🇧🇷🇫🇷
🇺🇸🇧🇷🇫🇷
Blog

La course aux agents

March 13, 2026
Depuis quelque temps, le débat sur la sécurité de l’IA était surtout occupé par les prompt injections théoriques, les jailbreaks académiques et des scénarios de défaillance encore abstraits. S’il y a une chose que les dernières semaines ont rendue claire, c’est celle-ci : nous avons basculé du risque théorique à la réalité opérationnelle. La limite des capacités continue de reculer, notamment avec la sortie de GPT-5.4. En face, nos architectures défensives peinent à suivre. Nous voyons désormais la militarisation concrète de LLM commerciaux, des vulnérabilités critiques dans les frameworks agentiques, et une lutte géopolitique autour du contrôle de l’infrastructure IA. Le signal d’alerte le plus net est l’information selon laquelle Claude d’Anthropic aurait été utilisé dans des opérations de piratage visant le gouvernement mexicain. Jusqu’à récemment, beaucoup voulaient encore croire que les couches de sécurité imposées par les fournisseurs suffiraient à empêcher l’usage offensif sérieux de modèles commerciaux. Cette hypothèse ne tient plus. Les acteurs malveillants ne se contentent plus d’utiliser l’IA pour rédiger des emails de phishing. Ils contournent les garde-fous pour découvrir des vulnérabilités, générer du code d’exploitation et industrialiser l’exfiltration de données. Lorsqu’un modèle de pointe devient utile dans une intrusion liée à un État souverain, il faut accepter une réalité plus dure : la sécurité côté fournisseur est juste un frein, pas une frontière absolue de sécurité. Les défenseurs doivent désormais partir du principe que les adversaires disposent d’agents offensifs automatisés. Les modèles ne sont pas le seul problème. Les frameworks que nous construisons autour d’eux deviennent eux aussi des cibles. La divulgation de la vulnérabilité "ClawJacked" l’a rendu impossible à ignorer. ClawJacked a révélé une faille par laquelle des sites malveillants pouvaient détourner des agents OpenClaw locaux via WebSockets. En connectant toujours plus vite nos assistants à des systèmes de fichiers locaux, à des outils internes et à des données d’entreprise, nous sommes en train d’effacer des frontières d’isolation qui, hier encore, paraissaient non négociables. Un agent IA est, en pratique, un utilisateur hautement privilégié. Si un attaquant peut détourner son contexte via le navigateur, il récupère ces privilèges. C’est un vrai changement pour la sécurité des terminaux. Nous ne sécurisons plus seulement des applications statiques ; nous devons sécuriser des entités semi-autonomes. Si nous n’appliquons pas une logique zero-trust stricte aux agents IA, nous offrons aux adversaires un chemin de montée en privilèges prêt à l’emploi. La tension entre développement de l’IA et sécurité nationale n’a plus rien d’abstrait. La décision du Pentagone de classer Anthropic comme risque de supply chain montre à quel point la gouvernance des modèles peut vite devenir un enjeu stratégique. C’est un rappel simple : l’IA est désormais une technologie à double usage. À mesure que les modèles s’insèrent dans des systèmes critiques, l’alignement politique des entreprises qui les produisent devient une question de souveraineté, pas seulement d’achat technologique. En parallèle, la concentration s’accélère aussi côté défensif. Le rachat de Promptfoo par OpenAI en est un bon exemple. Faire entrer un outil open source majeur d’évaluation des LLM sous l’ombrelle d’un laboratoire de pointe peut simplifier l’intégration produit, mais cela complique aussi l’audit indépendant. Quand le même écosystème contrôle à la fois les modèles les plus puissants et une partie des outils utilisés pour les évaluer, la vérification externe devient "un peu plus" difficile. Le signal de fond est difficile à manquer : l’IA est devenue un champ disputé de conflit cyber, de levier stratégique et de contrôle d’infrastructure. Pour les ingénieurs sécurité et les SOC, le mandat change. Nous ne pouvons plus déléguer nos hypothèses de sûreté aux seuls fournisseurs de modèles. Il faut des réseaux capables d’encaisser une exploitation automatisée. Il faut traiter les agents IA internes comme des surfaces de risque comparables à un insider. Et il faut des environnements d’exécution contraints, observables et vérifiables. La course a déjà commencé. Attaquants et défenseurs s’appuient désormais sur la même classe de modèles. Le gagnant ne sera pas celui qui possède le modèle le plus "branché". Ce sera celui qui construit l’architecture la plus solide autour.