Les termes techniques sont expliqués entre parenthèses dans le texte et dans le glossaire en bas de page.
La Singularité (terme utilisé pour désigner le moment où l'IA dépasse définitivement l'intelligence humaine) a commencé à classer le code écrit par des humains comme matière dangereuse. Au lendemain de l'annonce de Mythos par Anthropic (un modèle d'IA d'Anthropic aux capacités avancées en sécurité informatique), des commentateurs avertissent qu'il serait désormais « dangereux » pour les humains d'écrire du code, étant donné la capacité surhumaine de Mythos à découvrir des vulnérabilités — une inversion où ce qui est le plus dangereux dans la pièce n'est plus l'IA, mais la boucle for (une instruction de base en programmation, comme une consigne répétée en boucle) écrite à la main. Mythos semble aussi être le premier modèle de cette envergure entraîné sur des puces Blackwell (la dernière génération de processeurs IA de Nvidia) ; les puces suivantes, Vera Rubin, attendent encore en coulisses — une transmission générationnelle alors que le pré-entraînement (la phase initiale d'apprentissage où le modèle absorbe des milliards de textes) a encore de la marge, que l'apprentissage par renforcement (méthode où l'IA s'améliore par essais-erreurs récompensés) porte ses fruits, et qu'une vague de nouveaux calculs commence à déferler. OpenAI finaliserait son propre déploiement progressif d'un modèle cybernétique auprès d'un petit groupe de partenaires, dans la même veine que Mythos, tandis qu'Elon annonce que Colossus 2 de SpaceXAI entraîne actuellement 7 modèles en parallèle, du plus petit (Imagine V2) au plus grand — un mastodonte de 10 000 milliards de paramètres (un paramètre est une valeur interne du modèle, comme un réglage fin parmi des milliards), chaque cycle d'entraînement durant environ deux mois. Mais la puissance brute n'est pas synonyme de position de tête. Un mémo interne divulgué du nouveau président du xAI post-fusion, qui dirige aussi Starlink, admet que le laboratoire est « clairement en retard » sur les autres laboratoires de pointe et réorganise son ingénierie avant l'introduction en bourse de SpaceX — car 7 entraînements simultanés ne peuvent pas, à eux seuls, fabriquer du goût.
Le zoo de modèles se ramifie rapidement. Muse Spark de Meta, premier modèle sous la direction d'Alexandr Wang (fondateur de Scale AI, récemment recruté par Meta), est surnommé ironiquement « le modèle d'un PDG d'étiquetage de données » (Scale AI est spécialisée dans la production de données étiquetées pour entraîner les IA) — car il excelle sur les benchmarks (tests standardisés pour comparer les modèles) de qualité des données, mais est moins convaincant en raisonnement : rappel que vous livrez l'organigramme que vous avez. Alibaba a discrètement lancé HappyHorse-1.0, qui s'est immédiatement emparé de la première place sur les classements vidéo-texte et image-vidéo d'Artificial Analysis (site de benchmarks indépendant pour modèles d'IA), reléguant Seedance 2.0 de ByteDance à la deuxième place. ByteDance améliore ses anciens modèles avec l'In-Place Test-Time Training (une technique qui permet au modèle d'apprendre pendant qu'il répond à vos questions, en s'appuyant sur une mémoire temporaire — comme des notes écrites dans la marge — sans toucher à sa base), ce qui permet à un modèle de 4 milliards de paramètres de dominer sur des contextes de 128 000 tokens (environ 100 000 mots — soit un roman entier). Les chercheurs d'OpenAI ont quant à eux résolu 5 nouveaux problèmes d'Erdős (conjectures mathématiques non résolues depuis des décennies, posées par le mathématicien Paul Erdős) en combinatoire, probabilités et théorie des nombres, transformant méthodiquement les grandes questions ouvertes du 20e siècle en tickets fermés. Scott Wu de Cognition note que les FLOPs mondiaux croissent d'environ 3x par an alors que la demande d'inférence croît d'environ 10x (les FLOPs mesurent la puissance de calcul ; l'inférence, c'est l'utilisation du modèle pour répondre à vos questions) — un ciseau qui préfigure des hausses de prix et une migration vers des modèles plus petits et plus efficaces.
La couche applicative se gorge de données. Le chiffre d'affaires récurrent de Perplexity a doublé à 500 millions de dollars depuis le Nouvel An. Tubi est devenu le premier grand service de streaming à lancer une application native dans ChatGPT (Tubi est un service de vidéo gratuit, concurrent de Netflix), transformant la fenêtre de chat en nouveau guide des programmes. Google a riposté avec Notebooks dans l'application Gemini, intégrant directement NotebookLM (outil Google permettant d'analyser et d'interroger ses propres documents via l'IA) à l'assistant, pour que les conversations, sources et fichiers partagent un même espace de travail. L'incarnation physique s'insinue par le rayon éclairage. Syncere a dévoilé Lume, un robot en forme de lampe présenté comme quelque chose qui « fait vos corvées », suggérant que le premier robot grand public pour la maison n'arrivera pas sous la forme d'un humanoïde, mais déguisé en meuble que vous possédez déjà.
Le substrat peine à suivre. L'emballage CoWoS de TSMC croît de 80 % par an (CoWoS est une technologie d'assemblage de puces qui connecte processeurs et mémoires à très haute densité, comme plusieurs étages d'un immeuble reliés directement), la majorité de la capacité étant réservée à Nvidia, tandis que Meta s'est engagé pour 21 milliards de dollars supplémentaires auprès de CoreWeave (fournisseur américain de cloud spécialisé dans la location de GPU pour l'IA) jusqu'en 2032, en plus d'un accord préalable de 14,2 milliards. Même Stargate (le projet de 500 milliards de dollars d'infrastructure IA aux États-Unis mené par OpenAI, SoftBank et Oracle) a des frontières qu'il ne peut forcer. OpenAI a suspendu son projet de construction Stargate au Royaume-Uni, invoquant les coûts énergétiques et la réglementation, et Epoch AI a calculé que les laboratoires chinois et les projets ouverts fonctionnent avec environ 10 fois moins de calcul que les laboratoires de pointe — un écart qui explique à la fois leur créativité et leur urgence. La réponse de l'Allemagne au goulot d'étranglement énergétique est poétique : elle construit la plus haute éolienne du monde, 364 mètres, à l'intérieur d'une mine de charbon (soit presque la hauteur de la Tour Eiffel avec son antenne, 330 m), érigeant l'avenir au-dessus du passé enfoui.
La pile humaine reçoit aussi ses mises à niveau. Life Biosciences a levé 80 millions de dollars pour commencer les essais cliniques de sa thérapie génique anti-âge (thérapie qui modifie l'expression de certains gènes pour ralentir le vieillissement cellulaire, fondée par le chercheur David Sinclair de Harvard), tandis que les médicaments GLP-1 (Ozempic, Wegovy — ils font maigrir significativement en réduisant l'appétit) entraînent une ruée vers de nouveaux vêtements à taille réduite, un phénomène que les analystes évaluent à 13 milliards de dollars supplémentaires pour l'industrie de l'habillement. Entre-temps, l'iPhone Fold serait sur la bonne voie pour un lancement en septembre, prêt à glisser dans les poches désormais plus minces.
La chronologie des révélations s'accélère elle aussi apparemment. Le représentant Ogles affirme que la Maison Blanche a enregistré le domaine Aliens.gov car le Président veut être celui qui révèle officiellement la vérité sur les PANs (Phénomènes Aériens Non identifiés — l'ancien acronyme OVNI est désormais moins utilisé par les autorités américaines), tandis que le projet de loi HR 8197 du représentant Burchett dissoudrait entièrement l'AARO (le Bureau du Pentagone chargé d'analyser les PANs, créé en 2022 pour centraliser les rapports des militaires) — un vote de défiance envers l'organe de surveillance des PANs du Pentagone.
Même les modèles de valorisation les plus conservateurs tracent désormais des courbes de vitesse d'échappement. Le modèle HOLT d'UBS — un outil d'évaluation financière réputé pour sa rigueur — estime la valeur de Nvidia à 22 000 milliards de dollars (pour donner une échelle : c'est vingt fois le PIB annuel de la France), et la directrice financière d'OpenAI, Sarah Friar, assure que les investisseurs particuliers obtiendront « à coup sûr » des parts lors de l'introduction en bourse, après une demande individuelle tonitruante lors du dernier tour de table.
Les marchés financiers tentent d'acheter une part pendant que la Singularité est encore cotée en dollars.
The Singularity has started classifying human-written code as a hazardous material. In the wake of Anthropic's Mythos announcement, commentators warn that "it will be unsafe" for humans to write code at all, given Mythos's superhuman vulnerability discovery, an inversion in which the most dangerous thing in the room is no longer the AI but the artisanal for-loop. Mythos also appears to be the first model class trained at scale on Blackwells, with Vera Rubins waiting in the wings, a generational handoff happening while pre-training still has headroom, RL is paying off, and a tidal wave of fresh compute is just starting to land. OpenAI is reportedly finalizing its own Mythos-style staggered rollout of a cyber model to a small set of partners, while Elon says SpaceXAI's Colossus 2 now has 7 models in training, from Imagine V2 through twin 1T and 1.5T variants up to a 10T behemoth, with each pretraining run lasting roughly two months. Yet sheer firepower is not the same as frontier position. A leaked memo from the post-merger xAI's new president, who also runs Starlink, admits the lab is "clearly behind" the other frontier shops and is reorganizing engineering ahead of the SpaceX IPO, since 7 simultaneous training runs cannot, by themselves, manufacture taste.
The model zoo is speciating fast. Meta's Muse Spark, the first model under Alexandr Wang, is being called "a data labeling CEO's model" for crushing data-quality benchmarks while flubbing reasoning ones, a reminder that you ship the org chart you have. Alibaba anonymously dropped HappyHorse-1.0, which promptly seized the #1 slot on Artificial Analysis's text-to-video and image-to-video boards, knocking ByteDance's Seedance 2.0 down to second. ByteDance is fighting back by making old models smarter mid-flight with In-Place Test-Time Training, repurposing MLP projection matrices as fast weights so a 4B model can dominate at 128k context. OpenAI's researchers, meanwhile, solved 5 more Erdős problems across combinatorics, probability, and number theory, steadily turning the open conjectures of the 20th century into closed tickets in the issue tracker of the 21st. Cognition's Scott Wu notes global FLOPs are growing ~3x annually while inference demand is growing ~10x, a scissor that forecasts price hikes and a flight to smaller, leaner models.
The applications layer is drinking from the firehose. Perplexity's ARR doubled to $500M since New Year's. Tubi became the first major streamer to launch a native app inside ChatGPT, turning the chat window into the new channel guide. Google countered with Notebooks in the Gemini app, folding NotebookLM directly into the assistant so chats, sources, and files share one workspace. Embodiment is sneaking in through the lighting aisle. Syncere unveiled Lume, a lamp-shaped robot pitched as something that "does your chores," suggesting the first mass-market home robot will not arrive as a humanoid at all but disguised as furniture you already own.
The substrate is groaning to keep up. TSMC's CoWoS packaging is compounding at 80% annually, with the majority of capacity earmarked for Nvidia, while Meta committed an additional $21B to CoreWeave running through 2032, atop a prior $14.2B deal. Yet even Stargate has frontiers it can't brute-force. OpenAI paused its UK Stargate buildout, citing energy costs and regulation, and Epoch AI calculated Chinese and open labs are running on roughly 10x less compute than the frontier, a gap that explains both their creativity and their urgency. Germany's response to the energy bottleneck is poetic. It is building the world's tallest wind turbine, 364 meters, inside a coal mine, erecting the future on top of the buried past.
The human stack is getting its own upgrades. Life Biosciences raised $80M to begin clinical testing of its anti-aging gene therapy, while GLP-1 drugs are projected to add $13B in apparel sales as Americans shrink out of their wardrobes. Meanwhile, the iPhone Fold is reportedly on track for a September launch, ready to slip into the newly slimmer pockets.
The disclosure timeline is also apparently accelerating. Rep. Ogles says the White House registered "Aliens.gov" because the President wants to be "the guy that revealed the truth" and lay a "historic" baseline on UAPs, while Rep. Burchett's HR 8197 would dissolve AARO entirely, a no-confidence vote on the Pentagon's UAP gatekeeping office.
Even the most conservative valuation models are now drawing escape-velocity curves. UBS's HOLT model, an old-school cash-flow valuation tool, now pegs Nvidia's fair value at $22 trillion, and OpenAI CFO Sarah Friar says retail investors will "for sure" get IPO shares after roaring demand from individuals in the latest round.
Capital markets are attempting to buy in while the Singularity is still priced in dollars.