Aller au contenu
    GTC
    Événement

    Nvidia GTC 2026 : tout ce qu’il faut attendre du plus grand salon IA au monde

    Du 16 au 19 mars 2026 à San Jose, le GTC rassemble plus de 30 000 participants de 190 pays. Au programme : la plateforme Vera Rubin, un aperçu de l’architecture Feynman, de la robotique humanoïde et l’IA agentique. Preview complète avant la keynote de Jensen Huang.

    Chaque année en mars, Nvidia transforme San Jose en capitale mondiale de l’IA. Le GTC — GPU Technology Conference — est le rendez-vous où Jensen Huang dévoile la feuille de route technologique qui va dicter le rythme de l’industrie pour les douze mois suivants. L’édition 2026 s’annonce comme la plus dense depuis la création de l’événement.

    En 2025, le GTC avait été marqué par l’annonce de Blackwell Ultra, le modèle de fondation robotique GR00T N1, le moteur physique Newton en collaboration avec Google DeepMind et Disney Research, et la feuille de route Vera Rubin. Un an plus tard, Vera Rubin est en production. Et Jensen Huang promet des puces « que le monde n’a jamais vues ».

    Les informations pratiques

    Le GTC 2026 se déroule du 16 au 19 mars 2026 au SAP Center et dans plusieurs lieux du centre-ville de San Jose, en Californie. La keynote de Jensen Huang est programmée le lundi 16 mars de 11h à 13h (heure du Pacifique, soit 19h à 21h en France). Elle sera retransmise en direct sur nvidia.com sans inscription. Un « pregame show » avec des leaders de l’industrie (les PDG de Perplexity, LangChain, Mistral AI, entre autres) ouvre la journée dès 8h PT.

    Le programme comprend plus de 1 000 sessions techniques, 60 ateliers pratiques, 9 workshops d’une journée, 150 présentations de recherche et des certifications sur site. La session de questions-réponses pour les analystes financiers est prévue le mardi 17 mars à 9h PT. La participation virtuelle est gratuite pour la keynote.

    La star attendue : la plateforme Vera Rubin

    La plateforme Vera Rubin est le cœur de ce GTC. Dévoilée en grandes lignes au CES de Las Vegas le 5 janvier 2026 et entrée en production chez TSMC dans la foulée, elle représente le plus grand saut générationnel de Nvidia depuis l’introduction de Blackwell en 2024.

    Ce que les specs révèlent

    Le GPU Rubin est bâti sur deux puces de calcul gravées en 3 nm chez TSMC, totalisant 336 milliards de transistors. Chaque GPU embarque 288 Go de mémoire HBM4 avec une bande passante de 22 To/s — soit 2,8 fois plus que Blackwell. En termes de performances brutes, Nvidia annonce 50 pétaflops en inférence (NVFP4) et 35 pétaflops en entraînement, des gains de 5× et 3,5× respectivement par rapport au GPU Blackwell B200.

    Le CPU Vera, qui accompagne le GPU Rubin, repose sur des cœurs ARM « Olympus » conçus par Nvidia : 88 cœurs, 176 threads, jusqu’à 1,5 To de mémoire LPDDR5X. La bande passante cohérente NVLink-C2C entre CPU et GPU atteint 1,8 To/s, créant un espace mémoire unifié qui réduit les mouvements de données.

    Le rack NVL72 : une usine d’IA dans un meuble

    La configuration phare, le Vera Rubin NVL72, intègre 72 GPU Rubin et 36 CPU Vera dans un rack de 2,5 tonnes contenant plus de 3 km de câblage cuivre. Performances du rack : 3,6 exaflops en inférence, 2,5 exaflops en entraînement, 20,7 To de mémoire HBM4 et 54 To de LPDDR5X.

    En termes économiques — ce qui intéresse les opérateurs de data centers — Nvidia promet une réduction du coût par token d’inférence d’un facteur 10 par rapport à Blackwell, et 4 fois moins de GPU nécessaires pour entraîner les grands modèles Mixture-of-Experts (MoE). Les premiers systèmes sont attendus chez AWS, Google Cloud, Microsoft Azure et Oracle Cloud au second semestre 2026.

    Ce que ça change pour les utilisateurs d’outils IA

    Vous n’achèterez jamais un GPU Rubin. Mais les outils que vous utilisez quotidiennement — ChatGPT, Claude, Gemini, Midjourney — tourneront dessus. Plus les coûts d’inférence baissent, plus les modèles deviennent puissants et accessibles. Vera Rubin, c’est la promesse que les IA de demain seront 5 à 10 fois plus performantes pour le même prix — ou le même niveau de performance à un dixième du coût.

    La surprise promise : Feynman

    Jensen Huang a déclaré lors d’un échange avec des ingénieurs de SK hynix qu’il dévoilerait au GTC « une puce qui surprendra le monde ». Vera Rubin étant déjà connue, les regards se tournent vers Feynman — l’architecture de génération suivante, initialement prévue pour 2028.

    Les informations disponibles dessinent un bond technologique majeur. Feynman serait gravé sur le nœud TSMC A16, un procédé de classe 1,6 nanomètre. L’innovation la plus spectaculaire serait l’intégration de la photonique silicium — remplacer les signaux électriques par des transmissions optiques entre les unités de calcul. Ce changement lèverait l’un des goulets d’étranglement critiques des data centers actuels : la latence et la bande passante des interconnexions à l’échelle du rack.

    Nvidia serait le premier — et potentiellement le seul — client à lancer une production de masse sur le nœud A16, ce qui en dit long sur la relation stratégique entre Nvidia et TSMC. Au GTC, on s’attend au minimum à une démonstration statique de premiers échantillons Feynman, et possiblement à des détails techniques sur la feuille de route.

    La feuille de route accélérée

    Nvidia impose désormais un rythme d’itération annuel à l’industrie entière. La feuille de route actuelle se lit ainsi : Blackwell (2024), Blackwell Ultra (second semestre 2025), Vera Rubin (second semestre 2026), Rubin Ultra (2027), et Feynman (2028). Pour Rubin Ultra, Nvidia promet 100 pétaflops d’inférence par GPU, 1 To de mémoire HBM4e, et des configurations NVL576 à 576 GPU délivrant 15 exaflops.

    Jensen Huang l’a résumé sans ambiguïté lors du CES : la loi de Moore a largement ralenti. Avec seulement 1,6× plus de transistors par génération, les gains de 5× à 10× nécessitent une « co-ingénierie extrême » — innover simultanément sur le GPU, le CPU, la mémoire, le réseau et le logiciel. C’est précisément ce que Vera Rubin incarne avec ses six puces conçues comme un système intégré.

    L’IA physique et la robotique : le grand pari

    Le GTC 2025 avait vu l’annonce de GR00T N1, le premier modèle de fondation ouvert pour robots humanoïdes, et du moteur physique Newton (développé avec Google DeepMind et Disney Research). L’édition 2026 devrait aller beaucoup plus loin.

    Les sessions au programme couvrent l’IA physique comme thème central : entraînement de robots par simulation (Isaac Sim, Cosmos pour les données synthétiques), déploiement de l’IA embarquée sur Jetson, jumeaux numériques industriels via Omniverse, et véhicules autonomes avec le modèle de raisonnement ouvert Alpamayo. On attend des mises à jour significatives sur GR00T N1 et de nouveaux cas d’usage en production, notamment dans la logistique (Amazon Robotics, Digit), l’automobile (General Motors, Uber), et l’industrie manufacturière (Foxconn, Siemens).

    Nvidia positionne l’IA physique comme un marché de 50 000 milliards de dollars. Au-delà du chiffre marketing, l’écosystème est bien réel : des dizaines d’entreprises de robotique humanoïde — 1X, Figure AI, Apptronik, Unitree, Sanctuary AI, XPENG Robotics — construisent déjà sur la plateforme Isaac.

    L’IA agentique : le thème de l’année

    Si 2024 était l’année de l’IA générative, 2025-2026 est celle de l’IA agentique. Nvidia décrit ce passage comme la transition définitoire de l’ère actuelle : des chatbots qui répondent à des prompts vers des agents capables de raisonner, planifier et exécuter des tâches complexes en autonomie.

    Le programme du GTC 2026 consacre un track entier à l’IA agentique, avec des sessions sur les workflows multi-étapes, le déploiement d’agents à l’échelle de l’entreprise, les modèles de raisonnement, et les outils logiciels qui rendent tout cela possible — CUDA-X, les microservices NIM pour l’inférence, et la famille de modèles ouverts Nemotron. Les modèles ouverts de Nvidia (Nemotron, Llama Nemotron) sont conçus pour permettre aux développeurs de personnaliser des agents IA pour des domaines spécifiques : finance, santé, industrie, droit.

    GTC 2025 : ce qui avait été annoncé

    Pour mesurer l’ampleur de ce qui se prépare, un retour rapide sur les annonces majeures du GTC 2025 (mars et octobre).

    En mars 2025 à San Jose, Jensen Huang avait dévoilé Blackwell Ultra (GB300 NVL72, 1,5× les performances de Blackwell, disponibilité second semestre 2025), la feuille de route Vera Rubin pour 2026, le modèle GR00T N1 pour robots humanoïdes avec le robot BDX de Disney sur scène, le moteur physique Newton en open source, le DGX Spark (un supercalculateur personnel sur bureau), la collaboration avec General Motors pour les véhicules autonomes, le système de sécurité automobile Halos, et le logiciel Dynamo pour orchestrer l’inférence.

    En octobre 2025 à Washington, le focus était sur l’infrastructure américaine : la RTX Pro 6000 Blackwell Server Edition pour l’inférence en data center, les supercalculateurs Solstice et Equinox pour le Département de l’Énergie (en partenariat avec Oracle), une usine robotisée Foxconn au Texas pour fabriquer des GPU Blackwell, et des partenariats avec Nokia pour la 6G et avec Uber pour les robotaxis.

    Nvidia en chiffres : la machine derrière le GTC

    Pour comprendre pourquoi le GTC pèse autant, il faut regarder les résultats de Nvidia. L’exercice fiscal 2026 (février 2025 – janvier 2026) affiche un chiffre d’affaires de 215,9 milliards de dollars, en hausse de 65 %. Le quatrième trimestre seul représente 68,1 milliards, dont 62,3 milliards pour la division Data Center — soit plus de 90 % du chiffre d’affaires total. Le bénéfice net dépasse 120 milliards de dollars. La marge brute reste au-dessus de 75 %.

    Nvidia détient environ 90 % du marché des puces IA, un quasi-monopole renforcé par l’écosystème logiciel CUDA qui verrouille les développeurs dans son environnement. La capitalisation boursière frôle les 5 000 milliards de dollars — davantage que le PIB de la plupart des pays du G7.

    Mais attention aux risques

    Derrière les chiffres records, des signaux d’alerte existent. Le choc DeepSeek de janvier 2025 (589 milliards de capitalisation perdus en une journée) a montré que le marché peut douter. AMD lance Helios, son concurrent direct, avec des GPU MI400 embarquant 432 Go de HBM4. Les hyperscalers (Google, Amazon, Microsoft) développent tous leurs propres puces IA, avec des livraisons de puces custom projetées en hausse de 44,6 % en 2026. Les restrictions d’export vers la Chine limitent un marché stratégique. Et le gaming — l’activité historique de Nvidia — recule de 13 % d’un trimestre à l’autre.

    Comment suivre le GTC 2026 depuis la France

    La keynote de Jensen Huang sera diffusée en direct le lundi 16 mars à 19h (heure de Paris) sur nvidia.com, sans inscription. Le replay sera disponible dans les heures qui suivent. La session analystes du mardi 17 mars à 18h (heure de Paris) sera retransmise sur investor.nvidia.com.

    Les participants virtuels ont accès gratuitement à la keynote et à une sélection de sessions. Le pass conférence complet (sessions techniques, ateliers, certifications) est payant. L’application mobile GTC permet de suivre le programme en temps réel.

    Nous mettrons cet article à jour après la keynote avec les annonces officielles.

    Ce qu’on surveille de près

    Six points à observer pendant et après la keynote du 16 mars. Premièrement, les premiers benchmarks indépendants et commandes confirmées pour Vera Rubin. Deuxièmement, le niveau de détail technique sur Feynman — simple teaser ou véritable révélation. Troisièmement, les avancées sur la photonique silicium et son impact sur les interconnexions data center. Quatrièmement, les nouvelles collaborations robotiques et les cas d’usage en production réelle. Cinquièmement, les annonces logicielles — Dynamo, NIM, Nemotron — qui déterminent ce que les développeurs pourront construire. Et enfin, tout signal sur les puces grand public (RTX 60 Series), même si le GTC reste historiquement un événement centré sur le data center et l’entreprise.

    Aller plus loin
    Découvrez tous nos guides IA

    Concepts, tendances, guides pratiques… Tout ce qu’il faut connaître sur l’IA.

    Explorer le blog