🚨 Actus IA des 7 derniers jours!
1️⃣ Claude Mythos & Project Glasswing (7 avril) Anthropic a lâché une bombe cette semaine : Claude Mythos existe, c'est le modèle le plus puissant qu'ils aient jamais construit… et vous ne pourrez pas l'utiliser. Du moins pas tout de suite. Via le programme Project Glasswing, seules 50 organisations triées sur le volet — AWS, Apple, Microsoft, Google, CrowdStrike, JPMorganChase, Nvidia — y ont accès. L'objectif : sécuriser les logiciels critiques avant que des modèles de ce calibre ne se retrouvent dans la nature. Et les premiers résultats donnent le vertige : Mythos a déjà identifié des milliers de vulnérabilités haute sévérité dans tous les principaux navigateurs et systèmes d'exploitation. Le coup d'éclat ? Il a découvert de manière totalement autonome une faille vieille de 17 ans dans FreeBSD (CVE-2026-4747), qui permettait d'obtenir un accès root via NFS. On entre dans l'ère où l'IA trouve des failles que des armées de chercheurs avaient ratées pendant presque deux décennies. ---- 2️⃣ Anthropic dépasse OpenAI en revenus : $30 milliards (8 avril) Le petit qui devient grand. Anthropic vient d'atteindre 30 milliards de dollars de revenus annualisés, dépassant OpenAI (25 milliards) pour la toute première fois. En janvier 2025, Anthropic était à 1 milliard. Quinze mois plus tard, c'est ×30. Le passage de 9 à 30 milliards s'est fait en quatre mois. La clé ? 80% des revenus viennent de l'entreprise, avec plus de 1 000 clients dépensant chacun plus d'un million par an — un chiffre qui a doublé en deux mois. OpenAI reste très dépendant de sa base grand public. Anthropic projette un cash flow positif dès 2027, quand OpenAI vise 2030. Le marché de l'IA n'est plus une course à un seul cheval. ---- 3️⃣ OpenAI, Anthropic et Google s'unissent face à la Chine (6 avril) Quand trois rivaux s'assoient à la même table, c'est que le sujet est sérieux. OpenAI, Anthropic et Google ont annoncé qu'ils partageaient du renseignement via le Frontier Model Forum pour contrer une menace précise : la distillation adversariale de leurs modèles par des entreprises chinoises. Concrètement, certaines boîtes utilisent des techniques pour extraire les connaissances d'un modèle propriétaire et les transférer dans un modèle maison — sans payer ni respecter les licences. C'est du reverse-engineering appliqué à l'IA. Cette alliance est inédite par son ampleur et marque un tournant : la guerre de l'IA n'est plus seulement une course à la performance, c'est aussi une bataille de propriété intellectuelle.