Les termes techniques sont expliqués entre parenthèses dans le texte et dans le glossaire en bas de page.
La meilleure mesure de la Singularité (le régime actuel d'accélération de l'IA, voir glossaire) est sans doute le degré de stupéfaction qu'aurait le passé devant le présent. Alec Radford et ses collègues viennent de lancer Talkie, un modèle « d'époque » de 13 milliards de paramètres entraîné uniquement sur des textes antérieurs à 1931 ; il aurait été particulièrement stupéfait par les événements des années 1960. À cette échelle, l'année 2026 le ferait disjoncter. Thibault Sottiaux, responsable de l'ingénierie de Codex chez OpenAI (l'assistant de programmation d'OpenAI), déclare que « Codex a atteint sa vitesse de libération et continuera à s'améliorer rapidement », en référence à la boucle d'auto-amélioration désormais intégrée au cycle de développement (une fusée doit atteindre environ 11,2 km/s pour échapper à la gravité terrestre — Sottiaux compare l'IA à ce seuil). Autour de Codex, l'écosystème des grands modèles d'IA se déploie tous azimuts. Nvidia a publié Nemotron 3 Nano Omni, un modèle multimodal (qui traite à la fois texte, image, audio et vidéo, voir glossaire) open source (librement téléchargeable, voir glossaire) en tête de six classements pour la compréhension de documents, de vidéos et d'audio. Amazon Web Services intègre les modèles d'OpenAI directement dans Bedrock (la plateforme cloud d'AWS pour héberger des modèles IA, voir glossaire), ce qui permet aux entreprises clientes d'héberger elles-mêmes les modèles d'IA les plus avancés. GPT-5.5 xhigh vient d'établir un record sur KernelBench, un test très difficile qui consiste à écrire du code optimisé pour les puces GPU (voir glossaire). Son score de 6,57 % paraît bas, mais il bat largement les modèles précédents. Concrètement, l'IA optimise désormais le matériel qui la fait tourner. Sam Altman appelle à repenser entièrement les systèmes d'exploitation, les interfaces et les protocoles internet, pour que humains et agents IA puissent partager les mêmes surfaces de manière native.
L'ère artisanale des mathématiques touche à sa fin. GPT-5.5 vient de décrocher un record de 73,66 % sur Matharena (banc d'essai composé de problèmes inédits de niveau olympiades, voir glossaire) avec des problèmes qu'il n'avait jamais vus — un score plus que doublé par rapport aux 36,61 % de GPT-5.4. David Turturean, étudiant en master au MIT, rapporte que GPT-5.5 trouve les solutions plus vite qu'il n'arrive, lui, simple humain, à les assimiler ; trois solutions complètes à des problèmes d'Erdős (énigmes posées par le mathématicien hongrois Paul Erdős, dont certaines restent ouvertes depuis des décennies) sont déjà annoncées et d'autres attendent d'être vérifiées. Un autre observateur note que les modèles de langage font en parallèle un travail de nettoyage attendu de longue date : ils reprennent des problèmes ouverts laissés de côté et les reformulent proprement au passage. Les mathématiciens deviennent les conservateurs d'une production synthétique de masse.
Les agents IA colonisent les flux de travail. Le nouvel orchestrateur Symphony d'OpenAI transforme un tableau Linear (outil de suivi des tickets et tâches dans les équipes logicielles) en cockpit où chaque ticket ouvert reçoit son propre agent IA en exécution continue, les humains se contentant de relire les modifications de code. La même logique remonte la chaîne d'habilitations sécuritaires. Google a signé un accord IA classifié avec le Pentagone couvrant « toute finalité gouvernementale légale », signe que la frontière de l'IA de pointe se rapproche du cœur de la décision militaire américaine.
Le substrat (le socle matériel de l'IA : puces, mémoire, data centers, voir glossaire) s'étend vers la périphérie. Deux tiers des projets de data centers visent désormais des zones rurales agricoles à la recherche de terrains bon marché et d'incitations fiscales — l'inverse de la concentration urbaine actuelle (87 % des sites existants). Le calcul financier vacille en revanche. OpenAI aurait manqué ses cibles d'utilisateurs et de revenus, et sa directrice financière Sarah Friar s'inquiète publiquement du financement des futurs contrats de calcul. La réponse pourrait être structurelle. Un accord révisé avec Microsoft permet à OpenAI de déployer ses modèles sur n'importe quel cloud et met fin au partage de revenus avec Redmond (siège de Microsoft, près de Seattle) ; un observateur résume : « OpenAI peut désormais utiliser les TPU de Google et les Trainium d'Amazon » (les puces IA spécialisées de Google et d'Amazon, alternatives à celles de Nvidia, voir glossaire).
Une fois la couche silicium réorganisée, le monde matériel cherche à rattraper le numérique. D'après les projections d'Epoch AI, la production de robots humanoïdes dépasserait celle des drones vers 2033 et celle des robots à roues vers 2034 — les robots physiques suivent donc la même courbe exponentielle que l'IA logicielle. Le plafond monte en parallèle. La start-up True Anomaly a levé 650 millions de dollars pour des intercepteurs spatiaux, qui équiperont le projet « Golden Dome » (programme américain de bouclier antimissile annoncé par la Maison-Blanche, version étendue à l'orbite), étendant la chaîne d'engagement militaire jusqu'à l'espace.
La biologie, elle aussi, se réécrit avec des modèles fondateurs (très grands modèles généralistes, ici entraînés sur des séquences d'ADN, voir glossaire). Le laboratoire de Jennifer Doudna (co-découvreuse de CRISPR, prix Nobel de chimie 2020) a utilisé le modèle Evo2 pour découvrir VIPR (Viral Interference Programmable Repeat), un système de ciblage d'ADN guidé par ARN, programmable, caché à l'intérieur de bactériophages (virus qui n'infectent que les bactéries), antérieur à CRISPR (la technique d'édition génétique la plus connue, voir glossaire) et fonctionnant selon une logique entièrement nouvelle. La nature, elle, reprend du terrain quand les humains se retirent. Malgré la guerre, l'Iran rapporte une augmentation des observations de guépards d'Asie, rare bonne nouvelle de temps de guerre pour une espèce en danger critique d'extinction.
L'économie se réorganise autour de la nouvelle abondance. Le projet d'impôt sur les milliardaires en Californie ira au référendum de novembre, ce qui pourrait accélérer l'exode tech déjà en cours. La « théorie de l'internet mort » se trouve en partie confirmée (idée selon laquelle une part importante du web n'est plus produit ni lu par des humains, voir glossaire) : un tiers des sites créés depuis 2022 seraient générés par IA. Meta se prépare à défaire son rachat de Manus (start-up chinoise d'agents IA) après le blocage de l'opération par la Chine au nom de la sécurité nationale. Le marché du travail, lui, suit la frénésie d'investissement dans les puces : les entreprises tech ont supprimé 45 800 emplois en mars, le pire mois en deux ans, certains dirigeants présentant ouvertement les licenciements comme un signe de confiance dans un avenir où l'IA ferait l'essentiel du travail. Le jury du procès Musk contre Altman a été constitué, alors que les deux fondateurs préparent des introductions en bourse de premier plan pour SpaceX et OpenAI (une « IPO » est une introduction en bourse, voir glossaire). À Ottawa, le Premier ministre Mark Carney a annoncé la création du premier fonds souverain du Canada (véhicule d'investissement public destiné à placer les ressources financières d'un État, voir glossaire), qui financera l'énergie, les minéraux, l'agriculture et les infrastructures d'intérêt national.
L'intérêt composé a toujours été la Singularité, simplement à un rythme plus lent.
The Singularity is best measured by how astonished the past would be by the present. Alec Radford and colleagues launched Talkie, a 13B "vintage" model trained only on pre-1931 text, which was reportedly especially astonished by the events of the 1960s. By that yardstick, today is going to break Talkie. OpenAI's Codex engineering lead Thibault Sottiaux declares that "Codex has achieved escape velocity and will keep improving rapidly," an apparent nod to the self-improvement loop now baked into the dev cycle. The model layer is fanning out around it. Nvidia launched Nemotron 3 Nano Omni, an open multimodal model topping six leaderboards for document, video, and audio understanding. AWS is rolling OpenAI's models directly onto Bedrock, letting customers effectively self-host frontier intelligence. GPT-5.5 xhigh just topped KernelBench at 6.57% for writing GPU kernels, meaning the AI is now optimizing the hardware that runs it. Sam Altman is calling for a wholesale rethink of operating systems, interfaces, and internet protocols so that people and agents can natively share the same surfaces.
The artisanal era of mathematics is ending. GPT-5.5 just scored a record 73.66% on Matharena on fresh olympiad problems, more than doubling GPT-5.4's 36.61% and re-pricing what counts as a hard problem. MIT senior David Turturean reports that "GPT-5.5 has been finding solutions quicker than I, the human, can process them," with three full Erdős problem solutions already claimed and more in the supervision queue. Another observer notes the LLMs are simultaneously doing a long-overdue cleaning task, sweeping up neglected open problems and giving them proper statements as they go. Mathematicians have become curators of synthetic genius.
The agents are colonizing the workflow. OpenAI's new Symphony orchestrator turns a Linear board into a control plane where every open ticket gets its own continuously running agent, with humans reduced to reviewing the diffs. The same logic is climbing the security clearance ladder. Google has signed a classified AI deal with the Pentagon for "any lawful government purpose," indicating that the fence around frontier intelligence is being moved closer to the situation room.
The substrate is sprawling outward. Two-thirds of planned data centers are now headed for rural farm country chasing cheap land and tax incentives, inverting the 87% urban concentration of existing facilities. The capital math is wobbling, however. OpenAI reportedly missed its user and revenue targets, with CFO Sarah Friar voicing concern about funding future compute contracts. The fix may be structural. A revised Microsoft agreement lets OpenAI ship across any cloud and ends the Redmond revenue share, which one observer translates simply as "OpenAI can use Google TPUs and Amazon Trainium."
With the silicon stack reshuffled, atoms are racing to catch up to bits. Extrapolating trends from Epoch AI's analysis, humanoid production should cross drones around 2033 and wheeled robots around 2034, implying that the embodied workforce is on the same exponential as the disembodied one. The ceiling is rising in parallel. True Anomaly raised $650 million for space interceptors to support the White House's ambitious Golden Dome project, extending the kill chain into orbit.
Biology is also being rewritten with foundation models. The Doudna Lab used the Evo2 model to discover VIPR (Viral Interference Programmable Repeat), a programmable RNA-guided DNA-targeting system hiding inside bacteriophages that predates CRISPR and operates on entirely new logic. Wildlife often flourishes where humans retreat. Even amid the Iran war, Iran has reported a jump in Asiatic cheetah numbers, a rare wartime upside for an endangered species.
The economy is reorganizing around the new abundance. The California billionaire tax is heading to the November ballot, threatening to deepen the tech exodus already underway. Meanwhile, the Dead Internet Theory has been quietly confirmed, with a third of websites created since 2022 turning out to be AI-generated. Meta is preparing to unwind its Manus acquisition after China blocked the deal on national-security grounds. Labor is moving in lockstep with the chip splurge. Tech firms cut 45,800 jobs in March, the worst month in two years, with executives openly framing layoffs as confidence in the post-human future. The Musk v. Altman trial jury was seated just as both founders prepare blockbuster IPOs for SpaceX and OpenAI. And in Ottawa, PM Mark Carney announced Canada's first sovereign wealth fund to bankroll energy, minerals, agriculture, and infrastructure of national interest.
Compound interest was always the Singularity, just running on slower models.