Project Glasswing : illustration officielle Anthropic pour Claude Mythos Preview
Actualités IA

Claude Mythos : Anthropic dévoile un modèle qui trouve des failles zero-day vieilles de 27 ans

· · · 5 min de lecture

Anthropic a annoncé le lundi 6 avril Project Glasswing, une coalition qui réunit AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks autour d’un modèle non publié : Claude Mythos Preview. Et contrairement à l’habitude des annonces Anthropic, le pitch n’est ni sur le nombre de paramètres ni sur le contexte : c’est sur ce que le modèle trouve dans du code qui n’a pas bougé depuis 27 ans.

Ce qui distingue Mythos des Opus récents

Sur le papier, Claude Mythos Preview est un modèle frontier généraliste. Dans les chiffres, il écrase l’actuel Claude Opus 4.6 sur les benchmarks de code et de raisonnement. Quelques repères publiés par Anthropic : 93,9 % sur SWE-bench Verified (contre 80,8 % pour Opus 4.6), 82 % sur Terminal-Bench 2.0 (contre 65,4 %), et 94,6 % sur GPQA Diamond. Pour situer Mythos dans le paysage complet des modèles actuels, notre guide de tous les modèles IA en 2026 recense les principaux acteurs avec leurs scores comparés.

Mais le delta le plus parlant est sur CyberGym, un benchmark de reproduction de vulnérabilités : 83,1 % pour Mythos Preview contre 66,6 % pour Opus 4.6. Traduction en langage concret : le modèle est devenu capable, sans pilotage humain, de trouver et d’exploiter des failles dans du code de production.

Trois failles zero-day citées en exemple

Anthropic a rendu publiques trois vulnérabilités trouvées par Mythos Preview de manière entièrement autonome et désormais patchées :

  • Une faille vieille de 27 ans dans OpenBSD, un OS réputé pour son hardening sécurité, utilisé sur des firewalls d’infrastructure critique. Elle permettait de crash un serveur à distance avec une simple connexion.
  • Une faille de 16 ans dans FFmpeg, sur une ligne de code que les outils automatisés de test avaient parcourue 5 millions de fois sans jamais détecter le problème.
  • Une chaîne d’exploits dans le noyau Linux qui permettait d’escalader d’un utilisateur standard jusqu’au contrôle total de la machine.

Sur les trois cas, Anthropic précise que le modèle a aussi développé les exploits associés. Les détails techniques sont sur le blog Frontier Red Team d’Anthropic.

Pourquoi le modèle ne sera pas public

C’est le vrai tournant de cette annonce. Anthropic a explicitement décidé de ne pas rendre Mythos Preview disponible en GA. Le system card publié justifie la décision par le niveau de capacité offensive atteint : un acteur malveillant avec accès au modèle pourrait industrialiser la découverte de zero-days à une vitesse incompatible avec le temps de réponse des mainteneurs.

Le modèle reste accessible à 40+ organisations partenaires pour du défensif, avec un tarif annoncé après la preview de 25 $ input / 125 $ output par 1M tokens sur l’API Claude, Amazon Bedrock, Google Vertex AI et Microsoft Foundry. À titre de comparaison, l’actuel Claude Opus 4.6 est à 5 $/25 $. Mythos Preview est donc 5 fois plus cher, ce qui vaut aussi comme friction face aux usages abusifs.

Anthropic engage par ailleurs 100 M$ en crédits d’usage pour les partenaires Glasswing, 2,5 M$ de dons à la Linux Foundation (Alpha-Omega + OpenSSF) et 1,5 M$ à l’Apache Software Foundation pour aider les mainteneurs open source.

Ce que ça change pour toi si tu codes ou tu déploies

Trois implications concrètes à court terme :

  1. Le modèle économique du bug bounty va bouger. Si un modèle interne trouve des zero-days en quelques heures sur du code vieux de 20 ans, les chasseurs humains ne peuvent plus prétendre détenir le monopole de l’expertise. Les programmes vont intégrer de l’IA dans la boucle, et le prix des bounties sur failles triviales va baisser.
  2. L’open source maintainers game change. Les mainteneurs qui ne disposaient pas de budget sécurité vont pouvoir, via le programme Claude for Open Source, accéder à des capacités qui étaient réservées aux grosses équipes. C’est une bonne nouvelle à court terme, mais ça crée aussi un fossé pour ceux qui ne sont pas éligibles.
  3. La fenêtre entre découverte et exploitation se resserre brutalement. Elia Zaitsev, CTO de CrowdStrike, cité dans l’annonce, parle d’un temps d’exploitation qui passe de « plusieurs mois à quelques minutes ». Ceux qui déploient sans process de patch rapide sont exposés.

La question qui reste ouverte

Si Mythos est capable de ça dans sa preview, et si la concurrence (OpenAI GPT-5.4, Google Gemini 2.5 Pro, Mistral Large 3) est à un niveau proche, combien de temps avant qu’un modèle équivalent finisse en open weights — chez DeepSeek, chez Qwen, ou en torrent ? Anthropic prépare des safeguards pour une prochaine génération Opus, mais l’industrie joue contre la montre : les capacités offensives voyagent plus vite que les défenses qu’on construit autour.

L’annonce Glasswing ressemble moins à un lancement produit qu’à une mise en ordre de bataille : les 12 partenaires ne sont pas là pour expérimenter, ils sont là pour durcir leur propre code avant que le modèle équivalent n’atterrisse ailleurs. Pour ma part, ce qui me frappe le plus dans ce dossier, ce n’est pas le chiffre des benchmarks, c’est la faille FFmpeg de 16 ans : un bout de code parcouru cinq millions de fois par des outils automatisés sans que rien ne tilte. Les devs qui ont eu le modèle en main ces dernières semaines ont trouvé ça en quelques minutes. Je ne dis pas qu’il faut paniquer, juste que les comparatifs entre agents de code IA ne peuvent plus se contenter de mesurer la productivité développeur : la capacité offensive en est devenue un critère à part entière. Pour tout dev qui maintient du code sensible en 2026, le bon réflexe n’est plus de chercher à être plus malin que les attaquants, c’est d’accepter que l’IA est des deux côtés et de mettre ses process à jour en conséquence.

Article relu le 14 avril 2026. Signaler une erreur.

Tristan Cavel

Développeur full-stack · Spécialiste APIs et agents IA

Tristan bidouille du code depuis le collège et construit des produits dessus depuis 2016. Il est passé par deux startups (une en edtech lyonnaise, une en fintech parisienne), et depuis 2022 il est freelance full-stack depuis Bordeaux, avec une spécialisation LLM et agents IA qui s'est imposée naturellement : c'était soit apprendre à utiliser l'API OpenAI, soit continuer à coder des formulaires de contact. Sa première intégration sérieuse d'un LLM date de janvier 2023, sur un prototype de bot de support pour une scale-up SaaS B2B lyonnaise. Depuis, il a poussé en prod chez huit clients différents : chatbots spécialisés, pipelines RAG avec bases vectorielles, agents autonomes avec n8n et LangChain, et récemment des intégrations Claude Code dans des workflows de dev. Il teste chaque nouvel outil dans son lab perso avant de le recommander à un client, c'est devenu son réflexe. Sur Zoom IA, il écrit les guides techniques qui ne trichent pas : API ChatGPT pour les vrais devs, comparatifs n8n vs Make avec le retour d'expérience honnête, installation d'agents autonomes, LangChain vs LangGraph sous l'angle ce qui pète en prod. Il signe aussi les benchmarks de modèles avec du code testé, pas des scores recopiés des papers. Son parti-pris éditorial : montrer le code, citer les versions exactes, donner les commandes qui marchent, et ne pas cacher ce qui est cassé dans les outils. Il maintient un repo GitHub perso avec les scripts qu'il partage.

Ne rate rien de l'actu IA

Le Brief IA, chaque semaine dans ta boite. Gratuit, concret, sans spam.