← Toutes les éditions

The Innermost Loop

9 avril 2026 · Dr. Alex Wissner-Gross · article original · ~5 min
Taille du texte

Les termes techniques sont expliqués entre parenthèses dans le texte et dans le glossaire en bas de page.

Modèles & cybersécurité

La Singularité (terme utilisé pour désigner le moment où l'IA dépasse définitivement l'intelligence humaine) a commencé à classer le code écrit par des humains comme matière dangereuse. Au lendemain de l'annonce de Mythos par Anthropic (un modèle d'IA d'Anthropic aux capacités avancées en sécurité informatique), des commentateurs avertissent qu'il serait désormais « dangereux » pour les humains d'écrire du code, étant donné la capacité surhumaine de Mythos à découvrir des vulnérabilités — une inversion où ce qui est le plus dangereux dans la pièce n'est plus l'IA, mais la boucle for (une instruction de base en programmation, comme une consigne répétée en boucle) écrite à la main. Mythos semble aussi être le premier modèle de cette envergure entraîné sur des puces Blackwell (la dernière génération de processeurs IA de Nvidia) ; les puces suivantes, Vera Rubin, attendent encore en coulisses — une transmission générationnelle alors que le pré-entraînement (la phase initiale d'apprentissage où le modèle absorbe des milliards de textes) a encore de la marge, que l'apprentissage par renforcement (méthode où l'IA s'améliore par essais-erreurs récompensés) porte ses fruits, et qu'une vague de nouveaux calculs commence à déferler. OpenAI finaliserait son propre déploiement progressif d'un modèle cybernétique auprès d'un petit groupe de partenaires, dans la même veine que Mythos, tandis qu'Elon annonce que Colossus 2 de SpaceXAI entraîne actuellement 7 modèles en parallèle, du plus petit (Imagine V2) au plus grand — un mastodonte de 10 000 milliards de paramètres (un paramètre est une valeur interne du modèle, comme un réglage fin parmi des milliards), chaque cycle d'entraînement durant environ deux mois. Mais la puissance brute n'est pas synonyme de position de tête. Un mémo interne divulgué du nouveau président du xAI post-fusion, qui dirige aussi Starlink, admet que le laboratoire est « clairement en retard » sur les autres laboratoires de pointe et réorganise son ingénierie avant l'introduction en bourse de SpaceX — car 7 entraînements simultanés ne peuvent pas, à eux seuls, fabriquer du goût.

Le zoo de modèles se ramifie rapidement. Muse Spark de Meta, premier modèle sous la direction d'Alexandr Wang (fondateur de Scale AI, récemment recruté par Meta), est surnommé ironiquement « le modèle d'un PDG d'étiquetage de données » (Scale AI est spécialisée dans la production de données étiquetées pour entraîner les IA) — car il excelle sur les benchmarks (tests standardisés pour comparer les modèles) de qualité des données, mais est moins convaincant en raisonnement : rappel que vous livrez l'organigramme que vous avez. Alibaba a discrètement lancé HappyHorse-1.0, qui s'est immédiatement emparé de la première place sur les classements vidéo-texte et image-vidéo d'Artificial Analysis (site de benchmarks indépendant pour modèles d'IA), reléguant Seedance 2.0 de ByteDance à la deuxième place. ByteDance améliore ses anciens modèles avec l'In-Place Test-Time Training (une technique qui permet au modèle d'apprendre pendant qu'il répond à vos questions, en s'appuyant sur une mémoire temporaire — comme des notes écrites dans la marge — sans toucher à sa base), ce qui permet à un modèle de 4 milliards de paramètres de dominer sur des contextes de 128 000 tokens (environ 100 000 mots — soit un roman entier). Les chercheurs d'OpenAI ont quant à eux résolu 5 nouveaux problèmes d'Erdős (conjectures mathématiques non résolues depuis des décennies, posées par le mathématicien Paul Erdős) en combinatoire, probabilités et théorie des nombres, transformant méthodiquement les grandes questions ouvertes du 20e siècle en tickets fermés. Scott Wu de Cognition note que les FLOPs mondiaux croissent d'environ 3x par an alors que la demande d'inférence croît d'environ 10x (les FLOPs mesurent la puissance de calcul ; l'inférence, c'est l'utilisation du modèle pour répondre à vos questions) — un ciseau qui préfigure des hausses de prix et une migration vers des modèles plus petits et plus efficaces.

Applications & produits

La couche applicative se gorge de données. Le chiffre d'affaires récurrent de Perplexity a doublé à 500 millions de dollars depuis le Nouvel An. Tubi est devenu le premier grand service de streaming à lancer une application native dans ChatGPT (Tubi est un service de vidéo gratuit, concurrent de Netflix), transformant la fenêtre de chat en nouveau guide des programmes. Google a riposté avec Notebooks dans l'application Gemini, intégrant directement NotebookLM (outil Google permettant d'analyser et d'interroger ses propres documents via l'IA) à l'assistant, pour que les conversations, sources et fichiers partagent un même espace de travail. L'incarnation physique s'insinue par le rayon éclairage. Syncere a dévoilé Lume, un robot en forme de lampe présenté comme quelque chose qui « fait vos corvées », suggérant que le premier robot grand public pour la maison n'arrivera pas sous la forme d'un humanoïde, mais déguisé en meuble que vous possédez déjà.

Infrastructure

Le substrat peine à suivre. L'emballage CoWoS de TSMC croît de 80 % par an (CoWoS est une technologie d'assemblage de puces qui connecte processeurs et mémoires à très haute densité, comme plusieurs étages d'un immeuble reliés directement), la majorité de la capacité étant réservée à Nvidia, tandis que Meta s'est engagé pour 21 milliards de dollars supplémentaires auprès de CoreWeave (fournisseur américain de cloud spécialisé dans la location de GPU pour l'IA) jusqu'en 2032, en plus d'un accord préalable de 14,2 milliards. Même Stargate (le projet de 500 milliards de dollars d'infrastructure IA aux États-Unis mené par OpenAI, SoftBank et Oracle) a des frontières qu'il ne peut forcer. OpenAI a suspendu son projet de construction Stargate au Royaume-Uni, invoquant les coûts énergétiques et la réglementation, et Epoch AI a calculé que les laboratoires chinois et les projets ouverts fonctionnent avec environ 10 fois moins de calcul que les laboratoires de pointe — un écart qui explique à la fois leur créativité et leur urgence. La réponse de l'Allemagne au goulot d'étranglement énergétique est poétique : elle construit la plus haute éolienne du monde, 364 mètres, à l'intérieur d'une mine de charbon (soit presque la hauteur de la Tour Eiffel avec son antenne, 330 m), érigeant l'avenir au-dessus du passé enfoui.

Biosciences & consommation

La pile humaine reçoit aussi ses mises à niveau. Life Biosciences a levé 80 millions de dollars pour commencer les essais cliniques de sa thérapie génique anti-âge (thérapie qui modifie l'expression de certains gènes pour ralentir le vieillissement cellulaire, fondée par le chercheur David Sinclair de Harvard), tandis que les médicaments GLP-1 (Ozempic, Wegovy — ils font maigrir significativement en réduisant l'appétit) entraînent une ruée vers de nouveaux vêtements à taille réduite, un phénomène que les analystes évaluent à 13 milliards de dollars supplémentaires pour l'industrie de l'habillement. Entre-temps, l'iPhone Fold serait sur la bonne voie pour un lancement en septembre, prêt à glisser dans les poches désormais plus minces.

Géopolitique & phénomènes inexpliqués

La chronologie des révélations s'accélère elle aussi apparemment. Le représentant Ogles affirme que la Maison Blanche a enregistré le domaine Aliens.gov car le Président veut être celui qui révèle officiellement la vérité sur les PANs (Phénomènes Aériens Non identifiés — l'ancien acronyme OVNI est désormais moins utilisé par les autorités américaines), tandis que le projet de loi HR 8197 du représentant Burchett dissoudrait entièrement l'AARO (le Bureau du Pentagone chargé d'analyser les PANs, créé en 2022 pour centraliser les rapports des militaires) — un vote de défiance envers l'organe de surveillance des PANs du Pentagone.

Marchés & valorisations

Même les modèles de valorisation les plus conservateurs tracent désormais des courbes de vitesse d'échappement. Le modèle HOLT d'UBS — un outil d'évaluation financière réputé pour sa rigueur — estime la valeur de Nvidia à 22 000 milliards de dollars (pour donner une échelle : c'est vingt fois le PIB annuel de la France), et la directrice financière d'OpenAI, Sarah Friar, assure que les investisseurs particuliers obtiendront « à coup sûr » des parts lors de l'introduction en bourse, après une demande individuelle tonitruante lors du dernier tour de table.

Les marchés financiers tentent d'acheter une part pendant que la Singularité est encore cotée en dollars.

Glossaire

Mythos (Anthropic)
Modèle d'IA d'Anthropic spécialisé dans la sécurité informatique, capable de détecter des failles dans le code avec une précision surhumaine. Nom de code interne rendu public cette semaine.
Pré-entraînement
Phase initiale d'apprentissage d'un modèle d'IA où il absorbe des quantités massives de texte pour acquérir une compréhension générale du langage et du monde. Dure des mois et coûte des centaines de millions de dollars.
Apprentissage par renforcement (RL)
Technique où l'IA s'améliore en recevant des récompenses pour les bonnes réponses et des pénalités pour les mauvaises, comme apprendre les échecs en jouant des milliers de parties.
Blackwell / Vera Rubin (Nvidia)
Générations successives de processeurs IA de Nvidia. Blackwell est la génération actuelle (2025) ; Vera Rubin est la suivante, dont le déploiement a commencé. Chaque génération multiplie la puissance de calcul.
FLOPs
Opérations en virgule flottante par seconde — une mesure de puissance de calcul. Un smartphone récent fait quelques téraFLOPs (mille milliards d'opérations par seconde) ; les grands centres de données IA atteignent des exaFLOPs (un milliard de milliards d'opérations par seconde).
Inférence
L'utilisation d'un modèle d'IA pour répondre à des requêtes (par opposition à l'entraînement). Quand vous posez une question à ChatGPT, c'est de l'inférence. La demande d'inférence croît bien plus vite que la capacité de calcul disponible.
CoWoS (TSMC)
Technologie d'assemblage qui empile processeurs et mémoires sur un même socle, comme plusieurs étages d'un immeuble reliés directement. Cela permet à Nvidia de fabriquer des GPU (circuits électroniques spécialisés dans le calcul parallèle massif, essentiels pour l'IA) bien plus puissants. La capacité de production mondiale est un goulot d'étranglement.
CoreWeave
Fournisseur américain de cloud spécialisé dans la location de GPU pour l'IA. Concurrent des offres IA d'Amazon, Google et Microsoft. Valorisé à plusieurs dizaines de milliards de dollars.
Stargate
Projet de 500 milliards de dollars d'infrastructure IA aux États-Unis, annoncé en janvier 2025, mené conjointement par OpenAI, SoftBank et Oracle avec le soutien de l'administration Trump.
AARO
All-domain Anomaly Resolution Office — Bureau du Pentagone créé en 2022 pour analyser les phénomènes aériens non identifiés (PANs) signalés par les militaires. Sa crédibilité est contestée par plusieurs élus.
GLP-1
Classe de médicaments (Ozempic, Wegovy, Mounjaro) imitant une hormone digestive pour réduire l'appétit et provoquer une perte de poids significative. Révolution médicale majeure de la décennie.
Modèle HOLT (UBS)
Outil d'analyse financière classique de la banque UBS, basé sur les flux de trésorerie futurs actualisés. Réputé conservateur et rigoureux, par opposition aux modèles plus spéculatifs. Sa valorisation de Nvidia à 22 000 milliards est donc particulièrement remarquable.

Models & cybersecurity

The Singularity has started classifying human-written code as a hazardous material. In the wake of Anthropic's Mythos announcement, commentators warn that "it will be unsafe" for humans to write code at all, given Mythos's superhuman vulnerability discovery, an inversion in which the most dangerous thing in the room is no longer the AI but the artisanal for-loop. Mythos also appears to be the first model class trained at scale on Blackwells, with Vera Rubins waiting in the wings, a generational handoff happening while pre-training still has headroom, RL is paying off, and a tidal wave of fresh compute is just starting to land. OpenAI is reportedly finalizing its own Mythos-style staggered rollout of a cyber model to a small set of partners, while Elon says SpaceXAI's Colossus 2 now has 7 models in training, from Imagine V2 through twin 1T and 1.5T variants up to a 10T behemoth, with each pretraining run lasting roughly two months. Yet sheer firepower is not the same as frontier position. A leaked memo from the post-merger xAI's new president, who also runs Starlink, admits the lab is "clearly behind" the other frontier shops and is reorganizing engineering ahead of the SpaceX IPO, since 7 simultaneous training runs cannot, by themselves, manufacture taste.

The model zoo is speciating fast. Meta's Muse Spark, the first model under Alexandr Wang, is being called "a data labeling CEO's model" for crushing data-quality benchmarks while flubbing reasoning ones, a reminder that you ship the org chart you have. Alibaba anonymously dropped HappyHorse-1.0, which promptly seized the #1 slot on Artificial Analysis's text-to-video and image-to-video boards, knocking ByteDance's Seedance 2.0 down to second. ByteDance is fighting back by making old models smarter mid-flight with In-Place Test-Time Training, repurposing MLP projection matrices as fast weights so a 4B model can dominate at 128k context. OpenAI's researchers, meanwhile, solved 5 more Erdős problems across combinatorics, probability, and number theory, steadily turning the open conjectures of the 20th century into closed tickets in the issue tracker of the 21st. Cognition's Scott Wu notes global FLOPs are growing ~3x annually while inference demand is growing ~10x, a scissor that forecasts price hikes and a flight to smaller, leaner models.

Applications & products

The applications layer is drinking from the firehose. Perplexity's ARR doubled to $500M since New Year's. Tubi became the first major streamer to launch a native app inside ChatGPT, turning the chat window into the new channel guide. Google countered with Notebooks in the Gemini app, folding NotebookLM directly into the assistant so chats, sources, and files share one workspace. Embodiment is sneaking in through the lighting aisle. Syncere unveiled Lume, a lamp-shaped robot pitched as something that "does your chores," suggesting the first mass-market home robot will not arrive as a humanoid at all but disguised as furniture you already own.

Infrastructure

The substrate is groaning to keep up. TSMC's CoWoS packaging is compounding at 80% annually, with the majority of capacity earmarked for Nvidia, while Meta committed an additional $21B to CoreWeave running through 2032, atop a prior $14.2B deal. Yet even Stargate has frontiers it can't brute-force. OpenAI paused its UK Stargate buildout, citing energy costs and regulation, and Epoch AI calculated Chinese and open labs are running on roughly 10x less compute than the frontier, a gap that explains both their creativity and their urgency. Germany's response to the energy bottleneck is poetic. It is building the world's tallest wind turbine, 364 meters, inside a coal mine, erecting the future on top of the buried past.

Biosciences & consumption

The human stack is getting its own upgrades. Life Biosciences raised $80M to begin clinical testing of its anti-aging gene therapy, while GLP-1 drugs are projected to add $13B in apparel sales as Americans shrink out of their wardrobes. Meanwhile, the iPhone Fold is reportedly on track for a September launch, ready to slip into the newly slimmer pockets.

Geopolitics & unexplained phenomena

The disclosure timeline is also apparently accelerating. Rep. Ogles says the White House registered "Aliens.gov" because the President wants to be "the guy that revealed the truth" and lay a "historic" baseline on UAPs, while Rep. Burchett's HR 8197 would dissolve AARO entirely, a no-confidence vote on the Pentagon's UAP gatekeeping office.

Markets & valuations

Even the most conservative valuation models are now drawing escape-velocity curves. UBS's HOLT model, an old-school cash-flow valuation tool, now pegs Nvidia's fair value at $22 trillion, and OpenAI CFO Sarah Friar says retail investors will "for sure" get IPO shares after roaring demand from individuals in the latest round.

Capital markets are attempting to buy in while the Singularity is still priced in dollars.

Traduit par Claude · Article original · The Innermost Loop par Dr. Alex Wissner-Gross