Claude Code Security, la nouveauté qui a fait trembler la Bourse de la cybersécurité

Anthropic vient d’ajouter une brique de sécurité à Claude Code. En quelques heures, le marché a réagi comme si l’IA allait rendre une partie des outils AppSec obsolètes, entraînant un décrochage boursier de plusieurs éditeurs cyber. Derrière la panique, un vrai tournant s’esquisse.

Anthropic a dévoilé Claude Code Security, une fonction intégrée à Claude Code sur le web, proposée en research preview limitée. L’outil scanne une base de code, repère des vulnérabilités et propose des correctifs destinés à être revus par des humains avant intégration. Anthropic présente cette capacité comme un moyen d’aider les défenseurs à trouver des failles que des méthodes classiques manquent. 

Ce que fait réellement l’outil

La promesse ne repose pas seulement sur un “scan” de signatures connues. L’argument mis en avant est celui d’un raisonnement plus proche d’un auditeur sécurité, capable de comprendre des interactions entre composants, de suivre des flux de données et de suggérer des patches ciblés. L’IA ne se contente donc plus d’alerter, mais “répare”.

Pourquoi les actions cyber ont décroché

Le 23 février 2026, plusieurs valeurs cybersécurité ont chuté nettement après cette annonce. Reuters décrit une baisse d’environ 11% pour CrowdStrike, Datadog et Zscaler, avec d’autres replis autour de 6% pour Fortinet et Okta, tandis que Palo Alto Networks et SentinelOne reculaient plus modestement. Barron’s, de son côté, rapporte un mouvement large et rapide, avec des baisses marquées aussi sur Zscaler, SailPoint ou JFrog. 

Ce que le marché a probablement “sur-interprété”

Cette réaction boursière excessive semble reposer sur un raccourci. Claude Code Security vise surtout la sécurité du code et la remédiation logicielle. Ce qui ne remplace pas les couches de sécurité opérationnelle, la télémétrie, la détection en temps réel, la réponse à incident, ni l’industrialisation d’un SOC. Plusieurs analystes cités dans la presse rappellent que l’essor de l’IA peut aussi augmenter la demande de sécurité. 

Le vrai tournant pour les équipes de développement

D’autant que l’intérêt est ailleurs. Si un outil “raisonne” sur un dépôt, propose une correction et accélère le cycle détection-correctif, la valeur se déplace. Cela veut dire moins de temps perdu à trier des alertes, plus d’effort sur la validation, les tests et la gouvernance des changements. Autrement dit, la sécurité ne disparaît pas, elle se recompose autour de la preuve et de la traçabilité. 

Le risque qui monte en parallèle

Anthropic le dit explicitement dans sa communication : les mêmes capacités de raisonnement peuvent aider des attaquants à repérer plus vite des failles exploitables. Ce lancement peut aussi se lire comme une course à l’armement, avec une idée centrale : donner aux défenseurs des outils “frontier” (des outils construits sur des modèles IA de tout premier niveau) avant que l’écosystème offensif ne les banalise. 

A surveiller maintenant

L’impact réel dépendra de trois variables. D’abord, de la qualité des correctifs proposés et de leur taux d’erreurs. Ensuite, de l’intégration dans les workflows des entreprises, car une IA qui suggère n’a de valeur que si la chaîne de validation suit. Enfin, de la stratégie commerciale : si ces fonctions deviennent un standard intégré à bas coût, certains segments AppSec seront sous pression, mais les plateformes cyber orientées opérations garderont un avantage structurel. 

 

Dernières publications

Dernières parutions partenaires

L'agenda

Sur le même sujet