Claude Mythos Preview est un modèle d’IA axé sur la cybersécurité, capable de détecter et corriger les failles dans le code.
Photo Credit: Unsplash/Mohamed Nohassi
Anthropic n’a pas rendu public le modèle en raison de sa capacité à pirater des systèmes
En seulement 48 heures, Anthropic a annoncé son nouveau modèle d'intelligence artificielle (IA) axé sur la cybersécurité, Claude Mythos Preview, et a suscité des inquiétudes dans l'ensemble du secteur technologique mondial. La start-up d'IA basée à San Francisco l'a qualifié de modèle le plus puissant pour les tâches de cybersécurité, en particulier pour la détection de vulnérabilités non découvertes dans les bases de code. L'entreprise a également averti que le modèle avait détecté des milliers de vulnérabilités de gravité élevée dans « tous les principaux systèmes d'exploitation et navigateurs Web », ce qui, si cela est vrai, constitue un problème majeur. Anthropic a également limité sa diffusion, invoquant la capacité du modèle à pirater n'importe quel système.
Depuis cette annonce, le monde a réagi à ce modèle avec émerveillement et crainte. De nombreux experts ont exprimé des inquiétudes quant à l'existence d'un modèle aussi puissant, tandis que d'autres ont émis des doutes sur ses capacités prétendues. Alors, que se passe-t-il exactement avec le dernier modèle de cybersécurité d'Anthropic ? Voici ce que vous devez savoir.
Dans une publication, Anthropic a affirmé que Claude Mythos Preview est un modèle d'IA à usage général qui est exceptionnellement performant en matière de codage et de raisonnement. Cette combinaison lui permet d'analyser de vastes bases de code et de détecter des failles de sécurité qui auraient pu échapper même au regard d'experts. L'entreprise affirme même que le modèle a déjà détecté des vulnérabilités dans des systèmes qui étaient restées inconnues pendant des décennies.
Actuellement, le modèle n'est disponible que pour ses partenaires du projet Glasswing. La liste des partenaires est impressionnante. Elle comprend Amazon Web Services (AWS), Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, Nvidia et Palo Alto. Presque toutes les grandes entreprises technologiques se sont associées à Anthropic pour avoir accès au modèle.
Cependant, cet accès est limité aux tâches liées à la cybersécurité. Cela signifie que, si ces entreprises peuvent renforcer leurs défenses, elles ne pourront pas lancer d'attaque malveillante contre d'autres entreprises ou bases de code. Anthropic étend également l'accès à une quarantaine d'organisations opérant dans le domaine des infrastructures logicielles critiques. Toutes ces entreprises bénéficieront de crédits d'utilisation d'une valeur de 100 millions de dollars (environ 923,6 milliards de roupies), fournis par Anthropic.
Anthropic a également publié la fiche système du modèle d'IA, mettant en évidence son évaluation interne selon différents benchmarks. C'est là que les choses prennent une tournure inquiétante. Le modèle surpasse Claude Opus 4.6, le modèle de pointe de l'entreprise, dans tous les tests pertinents. En outre, il obtient des résultats nettement supérieurs lors des tests relatifs à la cybersécurité.
Claude Mythos arrive en tête du benchmark de l'USA Mathematical Olympiad, du benchmark BrowseComp et du benchmark SWE-bench. Plus particulièrement, il a obtenu un score de 100 % sur Cybench, un benchmark qui mesure la capacité d'un modèle à effectuer des tâches de cybersécurité. C'est le seul modèle d'IA à avoir réalisé cet exploit. Ce qui est intéressant, c'est que certaines des tâches du test consistent à trouver et à exploiter des vulnérabilités dans des logiciels réels. Et comme si cela ne suffisait pas, le modèle surpasse également tous les autres LLM lors du benchmark CyberGym.
La fiche système révèle également que Mythos a été capable de découvrir des vulnérabilités jusque-là inconnues dans Firefox. Il s'agit d'un navigateur utilisé par des millions de personnes. Anthropic a fait preuve de responsabilité et a signalé la faille à l'entreprise.
Logan Graham, responsable de la Frontier Red Team chez Anthropic, a déclaré à NBC News que le modèle Mythos était suffisamment avancé non seulement pour mettre au jour des vulnérabilités jusque-là inconnues, mais aussi pour les utiliser comme des armes. Compte tenu de la capacité du modèle à analyser de vastes bases de code, on affirme que le LLM détecte des vulnérabilités et peut ensuite effectuer des tâches de piratage complexes et efficaces pour les exploiter.
Cela signifie que, entre les mains d'un acteur malveillant, le modèle peut causer de graves dommages. Dans le cadre de son exercice de red teaming, Anthropic a reconnu que c'était l'une des raisons pour lesquelles l'entreprise avait décidé de ne pas publier le modèle d'IA et qu'elle n'avait pas l'intention de le mettre à la disposition du public.
Cependant, certains pourraient faire valoir que l'existence même d'un modèle aussi puissant suscite de vives inquiétudes. Anthropic est une entreprise qui a tout intérêt à réaliser des bénéfices et à devancer ses concurrents. Alors, qu'est-ce qui empêche l'entreprise de lancer une attaque contre un concurrent afin d'améliorer sa position sur le marché ? Dans les jours à venir, l'entreprise trouvera probablement un moyen d'être plus transparente envers le monde entier au sujet du modèle et de la manière dont Anthropic en limite et en contrôle l'utilisation.
Publicité
Publicité