NVIDIA renforce son emprise sur l'infrastructure mondiale de l'intelligence artificielle en investissant 2 milliards de dollars supplémentaires dans CoreWeave. L'opération, réalisée via l'achat d'actions à 87,20 dollars l'unité, vise à soutenir un objectif industriel colossal : construire plus de 5 gigawatts de capacité de calcul d'ici 2030.
Ce partenariat dépasse la simple transaction financière. Il permet à NVIDIA de garantir que les infrastructures physiques nécessaires pour faire tourner ses futures générations de puces existeront bien à temps. Pour CoreWeave, cloud spécialisé dans le GPU, c'est un apport vital pour financer des "usines à IA" dont la consommation énergétique équivaudra à celle de plusieurs millions de foyers.
Deux milliards pour cinq gigawatts : l'échelle inédite du deal
L'investissement de 2 milliards de dollars porte la participation de NVIDIA dans CoreWeave bien au-delà des 6 % initiaux, consolidant une alliance stratégique débutée il y a plusieurs années. L'objectif affiché de 5 gigawatts (GW) de capacité d'ici la fin de la décennie donne la mesure du pari : 5 GW représentent environ la production de quatre à cinq réacteurs nucléaires standards, ou la consommation électrique de près de 3,75 millions de foyers américains.
Cette capacité ne servira pas à héberger des sites web ou des bases de données classiques, mais exclusivement à des tâches de calcul intensif pour l'intelligence artificielle. CoreWeave, qui a généré 1,36 milliard de dollars de revenus au troisième trimestre 2025 malgré une dette importante de 14 milliards, s'impose ainsi comme le constructeur privilégié de ces infrastructures de nouvelle génération.
Au-delà du cloud classique : l'usine à intelligence artificielle
Le terme "AI factory", martelé par Jensen Huang, désigne une rupture avec le datacenter traditionnel. Là où le cloud classique est conçu pour héberger de multiples applications disparates avec une forte résilience, l'usine à IA est optimisée pour une seule chose : la performance brute du calcul parallèle.
Ces installations se distinguent par une densité de puissance extrême, nécessitant des systèmes de refroidissement liquide et une architecture réseau capable de faire travailler des milliers de puces comme un seul superordinateur. C'est cette spécialisation qui permet à des acteurs comme CoreWeave de rivaliser avec les géants généralistes (AWS, Google Cloud) sur le segment spécifique de l'entraînement et de l'inférence de modèles massifs.
Sécuriser la demande : le modèle du financement circulaire
L'opération illustre la stratégie de "financement circulaire" de NVIDIA : l'entreprise investit dans ses propres clients, leur donnant les moyens d'acheter... du matériel NVIDIA. En finançant l'expansion de CoreWeave, NVIDIA s'assure un carnet de commandes rempli pour ses puces à forte marge (souvent supérieure à 70 %).
Cette approche permet d'accélérer artificiellement le déploiement du marché. Plutôt que d'attendre que les capacités de construction suivent la demande, NVIDIA préfinance l'infrastructure. CoreWeave s'est d'ailleurs engagé sur 6 milliards de dollars de services futurs, verrouillant ainsi une partie de la valeur créée au sein de l'écosystème NVIDIA.
Rubin, Vera, BlueField : l'infrastructure de 2026 en avant-première
L'accord garantit à CoreWeave un accès prioritaire aux technologies futures de NVIDIA. Les 5 GW de capacité accueilleront notamment l'architecture Rubin (successeur annoncé des puces Blackwell), les processeurs Vera (CPU dédiés aux tâches logiques des agents IA) et les unités de traitement de données BlueField.
Pour NVIDIA, CoreWeave sert de terrain de déploiement idéal. Contrairement aux hyperscalers (Google, Microsoft) qui développent leurs propres puces concurrentes en parallèle, CoreWeave reste totalement aligné sur la roadmap technique de NVIDIA, permettant de valider et d'optimiser les nouvelles architectures dès leur sortie d'usine.
L'accès au calcul haute performance pour les entreprises sans datacenter
La construction de ces usines répond à un goulot d'étranglement majeur : l'accès au GPU. Pour la majorité des entreprises et des laboratoires de recherche, construire un datacenter certifié pour des racks NVIDIA H100 ou Rubin est impossible (coût, délais, complexité électrique).
En mettant à disposition ces 5 GW sous forme de service cloud, CoreWeave permet aux entreprises de louer de la puissance pure à la demande. Cela démocratise l'accès aux supercalculateurs nécessaires pour l'IA générative, transformant des dépenses d'investissement (CAPEX) en dépenses de fonctionnement (OPEX) pour les clients finaux.
L'émergence d'un écosystème cloud dédié au GPU
Ce deal confirme la segmentation du marché du cloud. D'un côté, les hyperscalers généralistes qui cherchent à tout faire ; de l'autre, des "neoclouds" spécialisés comme CoreWeave, Lambda ou Neb, entièrement dédiés à la pile technologique NVIDIA.
En investissant massivement chez ces spécialistes, NVIDIA réduit sa dépendance vis-à-vis de ses clients historiques (Microsoft, Amazon, Google) qui deviennent progressivement ses concurrents sur le silicium. L'écosystème se structure ainsi autour de deux pôles : ceux qui fabriquent leurs propres pu, et ceux qui construisent les usines pour cons celles de NVIDIA.
**Sources :