Une IA d'Anthropic trop dangereux pour être rendu public

​Quid des sociétés marocaines dans Project Glasswing qui permet d’identifier des milliers de failles zero-day dans tous les grands systèmes d’exploitation, tous les principaux navigateurs web et d’autres logiciels critiques.


Rédigé par La rédaction le Mercredi 8 Avril 2026

Dans l’industrie de l’intelligence artificielle, la surenchère est souvent la règle : plus rapide, plus puissant, plus autonome. Cette fois, le signal envoyé par Anthropic est d’une autre nature.



Avec Claude Mythos Preview, l’entreprise ne vante pas seulement un bond technologique. Elle reconnaît implicitement avoir mis au point un outil si performant dans la détection et l’exploitation de vulnérabilités qu’elle préfère ne pas le rendre public. Anthropic affirme que le modèle a permis d’identifier, en quelques semaines, des milliers de failles zero-day dans tous les grands systèmes d’exploitation, tous les principaux navigateurs web et d’autres logiciels critiques.

Le choix est rare, presque politique. Dans un secteur habitué aux annonces triomphales, une entreprise explique soudain que son propre produit est trop sensible pour circuler librement. Mythos Preview n’est donc pas déployé au grand public. Anthropic indique qu’il n’est accessible qu’à travers Project Glasswing, un programme fermé destiné à des partenaires triés sur le volet pour des usages défensifs en cybersécurité.

L’initiative réunit notamment AWS, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft, NVIDIA, Palo Alto Networks et la Linux Foundation, ainsi qu’une quarantaine d’autres organisations chargées de maintenir ou sécuriser des infrastructures logicielles critiques.

Le cœur du problème est là : Mythos n’est pas seulement bon pour repérer des bugs. D’après l’évaluation publiée par Anthropic, il peut aussi raisonner sur des chaînes d’exploitation complexes, retrouver des vulnérabilités anciennes et accélérer un travail qui demandait jusque-là des journées ou des semaines à des spécialistes humains. L’entreprise écrit que même des employés sans expertise avancée en sécurité ont pu obtenir, avec ce modèle, des résultats de haut niveau sur une seule nuit de travail. Autrement dit, l’IA ne se contente plus d’assister les experts ; elle commence à abaisser fortement le coût d’entrée de capacités offensives très sensibles.

C’est ici que le récit technophile habituel se fissure. Depuis deux ans, les grands acteurs du secteur défendent l’idée que les modèles les plus puissants seront aussi les plus utiles à l’économie, à la recherche, à la productivité générale. Claude Mythos rappelle une vérité moins confortable : à partir d’un certain seuil, la performance brute devient un problème de sécurité collective. Une IA capable d’aider à corriger plus vite les failles peut aussi, si elle fuit ou si elle est mal encadrée, accélérer leur exploitation à grande échelle. Le dilemme n’est pas abstrait. Il touche au cœur des systèmes sur lesquels repose désormais la vie numérique : navigateurs, OS, composants open source, infrastructures cloud.

Anthropic tente évidemment de rassurer. Son rapport de risque précise que le danger principal n’est pas celui d’une machine qui développerait seule une intention hostile, mais d’un modèle très capable dont l’usage pourrait produire des effets graves s’il sortait du périmètre prévu. Le rapport note aussi que le risque global d’alignement est jugé maîtrisable, même s’il est plus élevé que pour les modèles précédents en raison de capacités plus avancées et d’usages plus autonomes. Dit autrement, le risque n’est pas romanesque ; il est industriel, opérationnel, systémique.

Ce dossier ouvre surtout une question plus large, que les gouvernements ne pourront pas esquiver longtemps.

Qui décide qu’un modèle est trop dangereux pour être diffusé ?
Sur quels critères ?
Avec quel contrôle public ?


Aujourd’hui, la réponse tient dans les mains d’une entreprise privée, aussi sérieuse soit-elle. Demain, d’autres acteurs pourraient faire un choix inverse : diffuser d’abord, corriger ensuite. C’est là que l’affaire Mythos dépasse Anthropic. Elle marque peut-être l’entrée dans une nouvelle phase de l’IA : celle où le débat ne portera plus seulement sur les emplois, les biais ou les usages créatifs, mais sur la gestion de capacités quasi stratégiques.

Au fond, Claude Mythos dit une chose simple et inquiétante : la frontière technologique ne se mesure plus seulement à ce qu’une IA sait faire, mais à ce qu’une société accepte ou refuse de laisser circuler.

 

​Quid des sociétés marocaines dans Project Glasswing ?

À ce stade, aucune entreprise marocaine n’apparaît dans la liste publique des partenaires de lancement annoncée par Anthropic, qui cite surtout de très grands acteurs américains et mondiaux comme AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks. Anthropic précise aussi que l’accès a été élargi à une quarantaine d’autres organisations liées aux logiciels critiques, mais sans publier, pour l’instant, de noms marocains.

Cela ne signifie pas que le Maroc est hors jeu ; cela montre surtout que, dans cette première vague, l’accès s’est fait par le haut de la chaîne technologique mondiale. Pour les entreprises marocaines, le vrai sujet est donc moins “pourquoi n’y sommes-nous pas ?” que “comment éviter de rester simples clientes de technologies de sécurité conçues ailleurs ?”.

Car dans l’ère qui s’ouvre, ne pas être autour de la table quand se définissent les outils de défense, c’est courir le risque de dépendre demain de standards, de priorités et de protections décidés sans nous.




Mercredi 8 Avril 2026
Dans la même rubrique :