Qui est Jensen Huang Le génie derrière le succès de Nvidia
Nvidia fournit les puces sans lesquelles l’IA n’existerait pas. Derrière cette position unique, un fondateur qui dirige la même entreprise depuis 1993. Parcours, stratégie et enjeux.
Pour comprendre l’industrie de l’IA en 2026, il faut comprendre Nvidia. Et pour comprendre Nvidia, il faut comprendre Jensen Huang. Depuis 33 ans, cet ingénieur taïwano-américain dirige l’entreprise qu’il a cofondée — une longévité exceptionnelle dans un secteur où les CEO changent tous les cinq ans. Sous sa direction, Nvidia est passée d’un fabricant de cartes graphiques pour gamers à l’entreprise la plus valorisée au monde, fournisseur indispensable de la puissance de calcul qui alimente toute l’intelligence artificielle. Ce n’est pas un hasard : c’est le résultat d’un pari stratégique pris dix ans avant tout le monde.
Parcours : de Taïwan à la fondation de Nvidia
Jen-Hsun Huang naît le 17 février 1963 à Tainan, dans le sud de Taïwan. Sa famille émigre en Thaïlande, puis aux États-Unis quand il a neuf ans. Passionné de mathématiques, il étudie l’ingénierie électrique à l’Oregon State University, puis obtient un master à Stanford. Il travaille chez LSI Logic (conception de circuits intégrés) et chez AMD avant de se lancer.
En 1993, à 30 ans, Huang cofonde Nvidia avec deux collègues ingénieurs, Chris Malachowsky et Curtis Priem. L’entreprise se spécialise dans les processeurs graphiques (GPU) — des puces conçues pour effectuer un très grand nombre de calculs en parallèle. Pendant vingt ans, le marché principal est le jeu vidéo : les GPU Nvidia (la gamme GeForce) deviennent le standard pour les graphismes 3D. L’entreprise est rentable, respectée dans son secteur, mais reste un acteur de niche dans le paysage tech global.
Le pari qui a tout changé : du gaming à l’IA
Le tournant intervient au début des années 2010. Des chercheurs en deep learning découvrent que les GPU — conçus pour le calcul massivement parallèle des graphismes — sont aussi parfaitement adaptés à l’entraînement des réseaux de neurones. Jensen Huang saisit l’opportunité avant tout le monde, y compris avant Intel et AMD.
Il prend deux décisions qui vont s’avérer déterminantes. D’abord, il investit massivement dans CUDA, une plateforme logicielle qui permet aux développeurs de programmer les GPU pour des tâches non graphiques — calcul scientifique, simulation, et bientôt IA. Ensuite, il réoriente progressivement Nvidia vers les data centers et le calcul haute performance, sans pour autant abandonner le gaming. C’est un pari à long terme : au moment où Huang l’engage, le marché de l’IA n’existe pas encore au sens commercial du terme.
Le résultat apparaît avec l’explosion de l’IA générative à partir de 2022-2023. Tous les grands modèles — GPT, Claude, Gemini, LLaMA, Mistral — sont entraînés sur des clusters de GPU Nvidia. L’entreprise se retrouve en position de quasi-monopole sur le segment le plus stratégique de l’économie technologique.
Ce n’est pas la puce elle-même qui crée le monopole — c’est l’écosystème. CUDA, la plateforme logicielle de Nvidia, compte des millions de développeurs formés et des années de bibliothèques optimisées. Migrer vers un GPU concurrent (AMD, Intel) ou vers une puce maison (Google TPU, Amazon Trainium) implique de réécrire du code, reformer des équipes et accepter un écosystème moins mature. C’est ce verrou logiciel, plus que la performance brute, qui rend Nvidia si difficile à déloger.
Les chiffres de Nvidia en 2026 : une entreprise hors norme
L’exercice fiscal 2026 de Nvidia (qui court de février 2025 à janvier 2026 — Nvidia est décalé d’un an par rapport au calendrier civil) place l’entreprise dans une catégorie à part. Chiffre d’affaires annuel : 215,9 milliards de dollars, en hausse de 65 % sur un an. Bénéfice net : environ 120 milliards. Marge brute : 75 % — un niveau exceptionnel pour un fabricant de semi-conducteurs, où les marges tournent habituellement autour de 50-60 %.
Le segment data centers (les puces pour l’IA) représente 197 milliards, soit plus de 91 % du chiffre d’affaires. Le gaming, activité historique de Nvidia, ne pèse plus qu’une fraction. L’entreprise prévoit 78 milliards de revenus pour le seul premier trimestre fiscal 2027 (février-avril 2026).
Pour mettre ces chiffres en perspective : le bénéfice net de Nvidia dépasse le PIB de plus de 100 pays. L’entreprise a reversé 41 milliards de dollars à ses actionnaires en 2025 en rachats d’actions et dividendes.
| Exercice fiscal | CA total | CA data centers | Bénéfice net | Marge brute |
|---|---|---|---|---|
| FY2024 (→ janv. 2024) | 60,9 Md$ | 47,5 Md$ | 29,8 Md$ | ~73 % |
| FY2025 (→ janv. 2025) | 130,5 Md$ | 115,2 Md$ | 72,9 Md$ | ~75 % |
| FY2026 (→ janv. 2026) | 215,9 Md$ | 197,3 Md$ | ~120 Md$ | 75 % |
La feuille de route : Blackwell, Rubin et l’IA agentique
Une des forces de Jensen Huang est sa capacité à projeter une feuille de route claire. Nvidia lance une nouvelle architecture de puces chaque année, chacune portant le nom d’un scientifique.
Blackwell est l’architecture en production depuis 2025. Huang la qualifie de « roi de l’inférence » — elle divise par dix le coût par token par rapport à la génération précédente (Hopper). La demande est telle que la CFO Colette Kress estime que Nvidia a une visibilité de 500 milliards de dollars de commandes entre début 2025 et fin 2026.
Vera Rubin est la prochaine génération, annoncée au CES de janvier 2026, prévue pour le second semestre 2026. La plateforme se compose de six composants (GPU, CPU, commutateurs réseau NVLink, SuperNIC) et vise des performances de classe exaflops. Le Rubin NVL72 (72 GPU par rack) est conçu pour l’entraînement, le NVL8 pour l’inférence.
Au-delà du matériel, Huang pousse Nvidia vers la couche logicielle. L’entreprise publie des modèles ouverts (la famille Nemotron), des jeux de données d’entraînement multilingues, et des outils pour l’IA agentique — ces systèmes IA autonomes capables de planifier et d’agir sans intervention humaine. Au CES 2026, Huang a identifié l’IA agentique comme la troisième grande transition du secteur, après le passage du CPU au GPU et l’émergence de l’IA générative.
L’IA agentique consomme beaucoup plus de puissance de calcul que l’IA conversationnelle. Un chatbot génère une réponse et s’arrête. Un agent raisonne, planifie, exécute, vérifie, réessaie — en boucle, pendant des heures. Pour Nvidia, c’est une aubaine : plus les modèles deviennent autonomes, plus ils ont besoin de GPU. L’entreprise a tout intérêt à promouvoir cette transition.
Les risques : ce qui pourrait freiner Nvidia
Nvidia est en position dominante, mais cette position n’est pas invulnérable. Trois risques méritent d’être compris.
Les puces maison des hyperscalers. Google (TPU), Amazon (Trainium), Meta et Microsoft développent tous des puces IA en interne pour réduire leur dépendance à Nvidia. Broadcom est devenu le principal fournisseur de ces puces sur mesure (ASIC). En février 2026, Meta a signé un partenariat massif pour les prochaines architectures Nvidia — mais en parallèle, tous ces acteurs investissent dans des alternatives. Si les hyperscalers internalisent ne serait-ce qu’un tiers de leurs besoins, l’impact serait réel.
La dépendance à TSMC. Nvidia conçoit ses puces mais ne les fabrique pas — c’est TSMC, à Taïwan, qui s’en charge. Dans un contexte de tensions croissantes entre les États-Unis et la Chine autour de Taïwan, cette dépendance est un risque stratégique majeur. Le gouvernement américain a d’ailleurs averti directement Jensen Huang du risque d’une intervention chinoise à Taïwan à l’horizon 2027.
Les restrictions à l’export. En avril 2025, Washington a imposé une licence d’exportation pour le H20, une puce que Nvidia avait spécifiquement conçue pour respecter les restrictions sur les ventes à la Chine. Le marché chinois représentait historiquement une part significative des revenus. Les commandes des hyperscalers américains compensent pour l’instant, mais la Chine développe ses propres alternatives (Huawei Ascend), ce qui pourrait scinder le marché mondial en deux écosystèmes à terme.
Nvidia en 2026 occupe une position comparable à celle d’Intel dans les années 2000 : dominante, indispensable, avec des marges exceptionnelles. Intel aussi semblait invulnérable — jusqu’à ce qu’ARM et les puces mobiles la prennent par surprise. La différence, c’est que Huang a déjà montré sa capacité à réinventer Nvidia (du gaming au data center). Mais l’histoire montre que les monopoles technologiques finissent toujours par être contestés.
Jensen Huang : le dirigeant
Huang dirige Nvidia depuis sa fondation en 1993 — plus de 30 ans au même poste. C’est une rareté dans l’industrie tech, où les CEO sont remplacés ou partent fonder autre chose tous les quelques années. Cette stabilité explique en partie la cohérence stratégique de Nvidia : les paris à long terme (CUDA, le pivot vers l’IA) n’auraient pas été possibles avec un dirigeant pensant à court terme.
Sa fortune personnelle est estimée à 164 milliards de dollars en mars 2026, ce qui en fait l’une des dix personnes les plus riches au monde. Il détient environ 3,5 % de Nvidia. Sa rémunération officielle — 49,9 millions de dollars en 2025 — est modeste au regard de la valeur créée. Nvidia lui a fixé un objectif de bonus de 4 millions pour l’exercice 2027.
Son style de management est connu pour être exigeant. Il prône une culture de l’urgence permanente et répète que la souffrance est formatrice — une conviction née de son expérience d’immigrant. Son blouson de cuir noir, devenu sa signature lors des keynotes, est un symbole aussi reconnaissable que le col roulé de Steve Jobs dans les années 2000.
Nvidia dans l’écosystème IA : la position du fournisseur indispensable
Nvidia occupe une place unique dans l’écosystème IA : elle ne développe pas de modèles concurrents de ChatGPT ou Claude, mais elle fournit le matériel et les logiciels sans lesquels aucun de ces modèles ne pourrait exister. C’est une position en amont de toute la chaîne de valeur.
Cette position a aussi une dimension géopolitique. En investissant dans Anthropic (10 milliards via Nvidia dans la Series G), dans des data centers en Europe, et en collaborant avec des gouvernements sur des projets d’infrastructure IA, Nvidia ne vend plus seulement des puces — elle structure la manière dont l’IA se déploie dans le monde. Jensen Huang est devenu un interlocuteur des chefs d’État, pas seulement des directeurs techniques.
Les investissements mondiaux en infrastructure IA pourraient atteindre 3 000 à 4 000 milliards de dollars par an d’ici 2029-2030 selon les estimations internes de Nvidia. Une partie substantielle de cette somme transitera par Nvidia. C’est ce qui justifie la valorisation actuelle de l’entreprise — et c’est aussi ce qui rend la question de la durabilité de cette position si importante.
Ce qu’il faut retenir
Jensen Huang a fait un pari que personne d’autre dans l’industrie n’a su faire : identifier, dix ans avant tout le monde, que le calcul parallèle serait le goulot d’étranglement de l’IA. Il a construit l’écosystème matériel et logiciel pour y répondre, et il a maintenu des marges qui n’ont pas d’équivalent dans l’industrie du semi-conducteur.
Mais comme pour toute position dominante, la vraie question n’est pas « est-ce que Nvidia est en tête aujourd’hui » — c’est « est-ce que Nvidia peut rester en tête quand ses propres clients essaient de s’en passer ». La réponse dépendra de la capacité de Huang à continuer ce qu’il fait depuis trente ans : anticiper la prochaine transition avant d’y être contraint. Jusqu’ici, il n’a jamais raté ce virage.
Anthropic, Mistral AI, DeepSeek, Apple Intelligence… Les acteurs qui façonnent l’IA en 2026.