CoreWeave : La révolution de l'infrastructure de l'IA - Comment une startup de minage de crypto-monnaie est devenue l'épine dorsale de l'intelligence artificielle, d'une valeur de 23 milliards de dollars

CoreWeave a émergé de ses origines de minage de crypto-monnaies pour devenir le fournisseur d'infrastructure cloud d'IA le plus spécialisé au monde, exploitant des supercalculateurs GPU à une échelle sans précédent tout en étant le pionnier du refroidissement liquide et des architectures bare-metal qui le différencient des hyperscalers traditionnels. La transformation de l'entreprise, qui est passée du minage d'Ethereum en 2017 à l'alimentation des modèles GPT d'OpenAI, représente le pivot le plus spectaculaire de la Silicon Valley, validé par un financement par emprunt de 7,5 milliards de dollars à une valorisation de 19 milliards de dollars (mai 2024), suivi d'une vente secondaire à 23 milliards de dollars (octobre 2024), une croissance explosive de 737 % du chiffre d'affaires en 2024, et classé parmi les meilleurs dans le nouveau cadre ClusterMAX de SemiAnalysis ; le rapport met en évidence l'isolation des locataires, Kubernetes bare-metal et la maturité ops de CoreWeave.

Le fossé technique que CoreWeave a construit s'appuie sur une architecture spécialisée, optimisée exclusivement pour le calcul accéléré. Alors que les fournisseurs de cloud traditionnels équilibrent les charges de travail générales avec le calcul par le GPU, CoreWeave a conçu chaque couche de sa pile pour les applications d'IA et de HPC. Leur architecture Kubernetes bare-metal élimine entièrement les frais généraux de virtualisation, tandis que le refroidissement liquide direct sur la puce permet des densités de rack de 130 kilowatts que les installations refroidies à l'air ne peuvent pas égaler. Cet avantage architectural fondamental, associé à un ordonnancement tenant compte de la topologie et à un réseau InfiniBand, permet à CoreWeave d'atteindre une utilisation de plus de 50 % des FLOPS modèles sur les GPU Hopper, soit environ 20 % de plus que les modèles de référence des fondations publiques, selon leurs repères internes.

La relation symbiotique entre la société et NVIDIA transcende les partenariats habituels entre fournisseurs, NVIDIA conservant une participation d'environ 6 % en mars 2025 et choisissant systématiquement CoreWeave pour les déploiements inauguraux d'architectures révolutionnaires. CoreWeave a été le premier à atteindre la disponibilité générale avec les systèmes GB200 NVL72 (février 2025) et le premier à déployer les systèmes GB300 NVL72 (3 juillet 2025). Le déploiement du GB300 promet ce que NVIDIA décrit comme une amélioration jusqu'à 50 fois du rendement de l'inférence du modèle de raisonnement, bien qu'il s'agisse d'un marketing de fournisseur plutôt que de repères évalués par des pairs. (Conseils marketing de NVIDIA ; analyse comparative indépendante en cours).

Les mesures financières soulignent la demande massive du marché pour une infrastructure d'IA spécialisée, CoreWeave réalisant un chiffre d'affaires trimestriel de 1,21 milliard de dollars (T2 2025), maintenant un carnet de commandes de 30,1 milliards de dollars et obtenant des engagements de clients de référence de la part de Microsoft (représentant 62 % du chiffre d'affaires de 2024), d'OpenAI (jusqu'à un contrat de 11,9 milliards de dollars plus une expansion de 4 milliards de dollars) et d'autres leaders de l'IA qui exigent des niveaux de performance optimisés pour l'entraînement et l'inférence à grande échelle. L'introduction en bourse de mars 2025 à 40 dollars par action a permis de lever environ 1,5 milliard de dollars, faisant de CoreWeave une société publique positionnée pour capturer de la valeur à mesure que la demande mondiale de calcul de l'IA s'accélère.

Cependant, cette croissance explosive cache un risque d'exécution substantiel, CoreWeave ayant plus de 11 milliards de dollars de dettes avec des dépenses d'intérêt de 267 millions de dollars au deuxième trimestre 25 (contre 67 millions de dollars au deuxième trimestre 24), ce qui implique un taux d'exécution annualisé de plus de 1 milliard de dollars au fur et à mesure que le bilan s'alourdit. Cette structure de capital exige une exécution sans faille alors que la société s'efforce de déployer l'infrastructure avant la concurrence des hyperscalers. L'extrême concentration des clients, avec Microsoft représentant 62% des revenus de 2024; et les deux premiers clients à 77%.

Cette analyse approfondie examine comment CoreWeave a conçu une infrastructure spécialisée dans l'intelligence artificielle à partir de principes de base, pourquoi ses avantages techniques s'avèrent significatifs face à la concurrence des hyperscalers, et si sa stratégie d'expansion agressive peut maintenir le leadership technologique tout en naviguant dans les réalités capitalistiques de la construction d'une infrastructure de calcul exascale. Grâce à la documentation technique, aux benchmarks de performance et à l'analyse de l'industrie, nous révélons comment une entreprise qui a commencé à miner de la crypto-monnaie dans un garage du New Jersey s'est positionnée en tant qu'infrastructure critique pour le développement de l'intelligence artificielle - et les défis financiers qui pourraient avoir un impact sur cette trajectoire.

L'avantage CoreWeave : Une infrastructure conçue spécialement pour les charges de travail d'IA

L'idée fondamentale de CoreWeave, à savoir que les charges de travail d'IA exigent une infrastructure radicalement différente de celle du cloud computing traditionnel, a conduit à des décisions architecturales qui offrent aujourd'hui des avantages mesurables en termes de performances pour les charges de travail d'entraînement, de réglage fin et d'inférence. Alors que les hyperscalers ont investi des centaines de milliards dans l'optimisation des applications Web, des bases de données et des logiciels d'entreprise, CoreWeave a reconnu que les grands modèles de langage et les réseaux neuronaux nécessitaient une bande passante mémoire extrême, des interconnexions à très faible latence et une dissipation thermique soutenue que les centres de données généralistes peinent à fournir de manière cohérente.

La différenciation technique commence par une intégration verticale complète optimisée exclusivement pour les charges de travail GPU. L'approche Kubernetes bare-metal de CoreWeave offre un accès matériel direct aux ressources GPU, CPU, réseau et stockage sans couches de virtualisation. L'ordonnancement tenant compte de la topologie minimise la latence des communications inter-GPU, tandis que la structure InfiniBand dédiée offre une connectivité de 400 Gb/s par GPU. Il est intéressant de noter que les instances GPU hyperscaler de premier plan offrent désormais un réseau à large bande passante : les instances A3 de Google Cloud exposent 3,2 Tbps par VM, la ND H100 v5 d'Azure fournit une connectivité de classe 1,6-3,2 Tbps, et les clusters AWS P5 offrent un réseau d'instance à 3200 Gbps avec SR-IOV/EFA. La différenciation réside moins dans les vitesses de liaison brutes que dans la topologie du cluster CoreWeave, l'optimisation du placement du planificateur et la gestion thermique refroidie par liquide à l'échelle du rack.

Selon les benchmarks publiés par NVIDIA, Cohere a obtenu une formation jusqu'à trois fois plus rapide sur les systèmes NVL72 GB200 de CoreWeave par rapport aux GPU Hopper de la génération précédente - bien que cela représente des améliorations matérielles générationnelles plutôt que des comparaisons entre clusters. D'autres performances revendiquées par les clients circulent dans les discussions du secteur, mais ne sont pas vérifiées publiquement par les entreprises elles-mêmes.

L'innovation du modèle commercial s'avère tout aussi importante : en se concentrant exclusivement sur le calcul GPU plutôt qu'en proposant des centaines de services, CoreWeave peut optimiser tous les aspects de ses opérations pour les charges de travail liées à l'IA. Cette spécialisation permet un déploiement rapide des nouvelles générations de matériel (quelques semaines contre plusieurs trimestres pour les clouds traditionnels), des opérations simplifiées avec une réduction des frais généraux de gestion, des relations directes avec les clients natifs du GPU qui privilégient la performance, et des modèles de consommation flexibles, y compris des instances réservées, à la demande, et des prix ponctuels lancés fin 2025.

La concurrence des hyperscalers s'intensifie à mesure qu'ils reconnaissent l'importance stratégique de l'infrastructure d'IA, avec AWS, Google Cloud et Microsoft Azure qui étendent tous leurs offres de GPU avec un réseau amélioré et des options bare-metal. Cependant, l'approche spécialisée de CoreWeave et son avantage de précurseur avec le dernier matériel de NVIDIA créent une différenciation. En tant qu'unique bénéficiaire de l'évaluation Platinum-tier ClusterMAX de SemiAnalysis en mars-avril 2025, CoreWeave fait preuve de leadership technique - bien que ce système d'évaluation prévoit des mises à jour tous les 3 à 6 mois, et que la dynamique concurrentielle continue d'évoluer.

Du minage d'Ethereum à la formation de modèles de fondation : L'histoire d'une origine improbable

La transformation de CoreWeave, d'une opération de minage de crypto-monnaie à une centrale d'infrastructure d'IA, a commencé en 2017 lorsque les cofondateurs Michael Intrator, Brian Venturo et Brannin McBee ont reconnu que leur expertise en matière de GPU pouvait servir à des fins plus précieuses que la résolution de puzzles cryptographiques. L'opération basée à Weehawken, dans le New Jersey, s'est d'abord concentrée sur le minage d'Ethereum, accumulant des milliers de GPU tout en développant des solutions de refroidissement personnalisées et un logiciel d'orchestration qui s'avérerait plus tard inestimable pour les charges de travail d'IA.

Le moment décisif est arrivé en 2019, lorsque le passage d'Ethereum à la preuve d'enjeu a menacé de rendre le minage par GPU complètement obsolète. Plutôt que de liquider leurs actifs comme la plupart des mineurs, les fondateurs de CoreWeave ont identifié une opportunité de marché émergente - la fourniture de calcul GPU pour les chercheurs en apprentissage automatique qui avaient du mal à accéder au matériel sur les clouds traditionnels. Parmi les premiers clients figuraient des institutions universitaires ayant besoin d'un calcul en rafale pour leurs expériences, des studios d'effets visuels réalisant des images de synthèse pour des films et des startups formant des modèles de vision par ordinateur.

La pandémie de 2020 a accéléré le pivot de CoreWeave, car le travail à distance a stimulé la demande de rendu en nuage tout en catalysant l'adoption de l'IA dans tous les secteurs. La société a signé son premier contrat d'entreprise majeur avec un fonds spéculatif nécessitant un traitement parallèle massif pour la modélisation des risques, validant ainsi le modèle commercial au-delà de la spéculation sur les crypto-monnaies. À la fin de l'année, CoreWeave exploitait plus de 10 000 GPU au service de diverses charges de travail, des simulations de repliement de protéines au transcodage vidéo en temps réel.


La percée a eu lieu en 2022 lorsque l'OpenAI a choisi CoreWeave comme partenaire d'infrastructure pour la formation au modèle GPT, attiré par sa capacité à déployer rapidement des milliers de GPU A100 avec un réseau InfiniBand, une configuration optimisée pour la formation à grande échelle. Les déploiements réussis ont validé l'architecture de CoreWeave à une échelle sans précédent, ce qui a conduit à des contrats élargis couvrant d'autres modèles de base. Ce client de référence a apporté à la fois une stabilité des revenus et une crédibilité technique qui ont attiré d'autres pionniers de l'IA.

Le capital-risque a reconnu la position stratégique de CoreWeave dans la chaîne d'approvisionnement de l'IA, Magnetar Capital dirigeant une série B de 200 millions de dollars en 2022, suivie d'une croissance rapide de l'évaluation. Le financement par emprunt de 7,5 milliards de dollars en mai 2024 auprès de Blackstone, Coatue et d'autres, pour une valorisation de 19 milliards de dollars, représentait l'une des plus importantes facilités de crédit privé de l'histoire de la technologie, permettant une expansion agressive de l'infrastructure pour répondre à l'explosion de la demande.

L'ADN culturel de l'exploitation minière des crypto-monnaies (acceptation du risque technique, optimisation de l'efficacité, fiabilité 24 heures sur 24 et 7 jours sur 7) s'est parfaitement adapté aux exigences de l'infrastructure de l'IA. Les mêmes ingénieurs qui ont tiré le maximum des taux de hachage des GPU optimisent maintenant les opérations de tenseur, tandis que la discipline financière requise pour profiter de la volatilité des marchés des crypto-monnaies aide à naviguer dans l'activité d'infrastructure à forte intensité de capital. Cette histoire d'origine improbable démontre que la rupture technologique émerge souvent des industries adjacentes plutôt que des entreprises en place, avec des outsiders non contraints par la pensée traditionnelle qui conçoivent des solutions spécialisées à partir de principes premiers.

Une structure de capital complexe reflète à la fois les opportunités et les risques.

La structure du capital de CoreWeave reflète à la fois l'opportunité massive dans l'infrastructure de l'IA et la nature à forte intensité de capital de la concurrence à hyperscale. L'historique de financement comprend 7,5 milliards de dollars de facilités de crédit à des taux d'intérêt d'environ 14 % (mai 2024), un financement total en actions dépassant 1 milliard de dollars en plusieurs tours, une vente d'actions secondaire valorisant la société à 23 milliards de dollars (octobre 2024) et une introduction en bourse de 1,5 milliard de dollars à 40 dollars par action (28 mars 2025), créant ainsi une société publique dont la valeur d'entreprise dépasse 35 milliards de dollars en incluant la dette.

Les investisseurs d'ancrage démontrent une valeur stratégique au-delà du capital. La participation d'environ 6 % de NVIDIA, d'une valeur de 900 millions de dollars en mars 2025 et de près de 1,6 milliard de dollars en mai, garantit un accès préférentiel à l'approvisionnement en GPU en cas de contraintes d'allocation, tout en offrant une collaboration technique sur l'optimisation matérielle/logicielle. La relation client de Microsoft valide CoreWeave en tant qu'infrastructure essentielle, notamment en raison de son partenariat massif avec OpenAI, qui nécessite d'importantes ressources de calcul. Le consortium d'investisseurs, comprenant Fidelity, BlackRock et Altimeter, apporte une crédibilité institutionnelle cruciale pour les ventes aux entreprises et les futures levées de fonds.

La concentration des clients présente à la fois une validation et un risque. Microsoft représentait environ 62 % du chiffre d'affaires de CoreWeave en 2024, selon les déclarations S-1 - une dépendance qui a permis une expansion rapide, mais qui crée une vulnérabilité à la renégociation des contrats ou aux changements stratégiques. La nature à long terme de ces contrats offre une certaine stabilité, bien que les durées spécifiques ne soient pas divulguées publiquement (les commandes sont généralement de deux à cinq ans). L'engagement d'OpenAI à hauteur de 11,9 milliards de dollars, plus une expansion ultérieure de 4 milliards de dollars divulguée dans les documents de relations avec les investisseurs de l'entreprise, fournit des revenus d'ancrage supplémentaires. L'élargissement de la clientèle, notamment à IBM et à des institutions financières de premier plan, témoigne de l'expansion du marché au-delà des locataires initiaux.

Le carnet de commandes de 30,1 milliards de dollars au deuxième trimestre 2025 offre une visibilité sans précédent pour une société d'infrastructure, avec des revenus contractuels représentant plusieurs années d'engagements à terme - bien que le risque d'exécution reste substantiel étant donné la complexité du déploiement et de l'exploitation de centaines de milliers de GPU dans des douzaines de centres de données. La reconnaissance du chiffre d'affaires dépend de la disponibilité de l'infrastructure, ce qui crée une pression pour maintenir des calendriers de déploiement agressifs tout en garantissant la fiabilité exigée par les entreprises clientes.

Les performances financières révèlent les difficultés économiques de l'infrastructure d'IA. Les résultats du deuxième trimestre 2025 font état d'un chiffre d'affaires de 1,21 milliard de dollars mais de pertes croissantes, l'entreprise étant confrontée à des charges d'amortissement massives sur du matériel en évolution rapide, à des charges d'intérêt avoisinant le milliard de dollars par an, compte tenu de la charge de la dette, et à des coûts opérationnels qui augmentent avec le déploiement de l'infrastructure. Le chemin vers la rentabilité passe par une plus grande échelle pour amortir les coûts fixes, l'amélioration des taux d'utilisation et le maintien d'une discipline tarifaire malgré les pressions concurrentielles - un équilibre délicat entre la croissance et la durabilité.

L'acquisition en mai 2025 de Weights & Biases pour environ 1,7 milliard de dollars (selon TechCrunch et des rapports de l'industrie, bien que les termes officiels n'aient pas été divulgués) ajoute des capacités MLOps tout en augmentant la complexité de l'intégration. L'opération a été finalisée le 5 mai 2025, combinant l'infrastructure et les outils de développement de modèles utilisés par plus de 1 400 entreprises.

Position sur le marché renforcée par la spécialisation et les partenariats.

La stratégie de marché de CoreWeave inverse les approches traditionnelles des plateformes cloud en limitant délibérément le champ d'application pour atteindre une profondeur inégalée dans le calcul accéléré par le GPU. Alors qu'AWS propose plus de 200 services pour toutes les charges de travail imaginables, CoreWeave fournit une infrastructure de calcul GPU optimisée pour l'entraînement et l'inférence de l'IA. Cette spécialisation permet des optimisations architecturales et des efficacités opérationnelles que les plateformes généralistes mettent en balance avec des exigences plus larges.

La dynamique concurrentielle continue d'évoluer rapidement. Les hyperscalers ont considérablement amélioré leurs offres de GPU, AWS, Google Cloud et Azure proposant désormais des options de réseau à large bande passante, des instances bare-metal et une meilleure disponibilité des GPU. La différenciation est de plus en plus axée sur la disponibilité à l'échelle du cluster, l'optimisation de la topologie, la gestion thermique et l'intégration de la pile logicielle plutôt que sur les spécifications brutes.

La stratégie de partenariat de CoreWeave amplifie son approche ciblée grâce à une intégration profonde de l'écosystème. La relation avec NVIDIA va au-delà de la dynamique client-fournisseur : la participation de NVIDIA au capital et la sélection constante de CoreWeave pour le lancement de nouvelles architectures (GB200 NVL72 en février 2025, GB300 NVL72 en juillet 2025) témoignent de l'alignement stratégique. Les partenariats avec Databricks, Hugging Face et d'autres plateformes d'IA garantissent la compatibilité des flux de travail sans que CoreWeave ait besoin de créer des services concurrents.

L'expansion géographique suit les centres d'innovation de l'IA avec 3,5 milliards de dollars engagés dans l'infrastructure européenne, dont 1 milliard de livres sterling pour les opérations au Royaume-Uni et des installations en Norvège, en Suède et en Espagne, en tirant parti de l'énergie renouvelable. La société exploite 33 centres de données en 2025, avec environ 470 MW de puissance informatique active et environ 2,2 GW de capacité contractuelle (T2 2025), se positionnant ainsi pour une croissance continue.

L'avantage concurrentiel durable découle d'effets composés où l'infrastructure spécialisée attire des clients exigeants, la demande concentrée justifie un investissement continu et le leadership technique assure un accès précoce au nouveau matériel. CoreWeave se trouve ainsi dans une position unique, même si les risques d'exécution restent importants compte tenu des besoins en capitaux et des pressions concurrentielles.

Infrastructure technique : L'ingénierie de l'IA à une échelle sans précédent

L'empreinte des centres de données de CoreWeave s'étend sur 33 sites opérationnels aux États-Unis et en Europe à partir de 2025, ce qui représente l'un des plus grands déploiements de GPU spécialisés au monde. La répartition géographique comprend 28 sites américains avec des déploiements majeurs, tels que le site de Plano, au Texas, d'une valeur de 1,6 milliard de dollars, qui héberge plus de 3 500 GPU H100 sur 454 421 pieds carrés. Dans les soumissions MLPerf Training v5.0 (juin 2025), CoreWeave, NVIDIA et IBM ont réalisé le plus grand benchmark jamais réalisé en utilisant 2 496 GPU GB200 pour entraîner Llama 3.1 405B en 27,3 minutes, soit plus de deux fois plus vite que les clusters de taille comparable des autres soumissionnaires.

L'infrastructure électrique représente un facteur de différenciation essentiel avec environ 470 mégawatts de capacité active et plus de 2,2 gigawatts sous contrat au deuxième trimestre 2025, y compris des installations conçues pour une efficacité exceptionnelle. La technologie de refroidissement liquide supportant 130 kilowatts par rack - par rapport aux limites traditionnelles de 30 kilowatts refroidis par air - permet de déployer des configurations denses comme les systèmes NVIDIA GB200 NVL72 qui contiennent 72 GPU par rack.

La flotte de GPU est centrée sur les dernières architectures de NVIDIA avec environ 250 000 GPU déployés au total. La composition comprend des variantes H100 dans des configurations SXM5 et PCIe, des GPU H200 avec 141 Go de mémoire HBM3e, et les premiers déploiements de systèmes GB200 NVL72. CoreWeave a atteint la première disponibilité générale du GB200 NVL72 (février 2025) et le premier déploiement du GB300 NVL72 (3 juillet 2025), maintenant ainsi son accès précoce au nouveau matériel NVIDIA.

La dorsale réseau utilise NVIDIA Quantum-2 InfiniBand qui délivre 400 Gb/s par GPU via des adaptateurs ConnectX-7 dans des topologies Fat Tree non bloquantes, ce qui permet d'obtenir une latence inférieure à la microseconde avec un débit élevé, bien que les vitesses brutes du réseau soient désormais comparables à celles des offres hyperscaler de premier plan. La différenciation réside dans l'optimisation de la topologie, l'intégration du planificateur et la configuration cohérente entre les clusters.

L'architecture de stockage est centrée sur les déploiements de la plateforme de données VAST utilisant une architecture désagrégée pour une mise à l'échelle indépendante. Le système atteint un débit soutenu de 1 GB/s par GPU avec des schémas d'E/S optimisés distinguant les lectures d'entraînement des écritures de vérification. La technologie LOTA (Local Object Transfer Accelerator) de CoreWeave met en cache les données fréquemment consultées sur les nœuds GPU, réduisant ainsi le trafic réseau tout en améliorant le débit.

Pile logicielle optimisée pour les performances d'une machine nue.

L'architecture Kubernetes bare-metal de CoreWeave élimine les frais généraux de virtualisation en exécutant Kubernetes directement sur le matériel. Cette approche fournit un accès direct au matériel tout en maintenant la multi-tenance grâce aux DPU NVIDIA BlueField. Les benchmarks internes affirment que cela permet une utilisation de plus de 50 % du modèle FLOPS sur les GPU Hopper, soit environ 20 % de plus que les références publiques, bien qu'une vérification indépendante de ces chiffres spécifiques reste limitée.

Le service CoreWeave Kubernetes (CKS) va au-delà du Kubernetes géré typique en permettant au client de contrôler les composants du plan de données tandis que CoreWeave gère le plan de contrôle. Préconfiguré avec des pilotes GPU, des interfaces réseau/stockage et des plugins d'observabilité, CKS s'intègre aux outils d'orchestration de charge de travail, notamment Slurm, KubeFlow et KServe.

SUNK (Slurm on Kubernetes) jette un pont entre les paradigmes HPC et cloud en déployant Slurm en tant que ressources Kubernetes conteneurisées, ce qui permet un partage dynamique des ressources entre les travaux par lots et les services à longue durée d'exécution. Il atteint une utilisation élevée grâce à un ordonnancement tenant compte de la topologie et optimisé pour les configurations de tissu InfiniBand.

La technologie Tensorizer accélère le déploiement des modèles grâce à une sérialisation et une diffusion optimisées, permettant d'atteindre des vitesses de chargement de modèles 5 fois plus rapides que les approches standard selon les benchmarks de CoreWeave. L'outil open-source permet un chargement "zéro-copie" qui diffuse les modèles morceau par morceau plutôt que de charger des modèles entiers dans la mémoire vive.

Des déploiements de pointe avec des références de performance vérifiées

Les réalisations de CoreWeave en matière d'infrastructure comprennent des soumissions MLPerf vérifiables qui démontrent l'échelle et la performance. La soumission MLPerf Training v5.0 de juin 2025 utilisant 2 496 GPU NVIDIA GB200 a terminé l'entraînement Llama 3.1 405B en 27,3 minutes, soit la plus grande soumission d'un fournisseur de cloud et plus de deux fois plus rapide que des clusters de taille comparable.

Les performances d'inférence atteignent 800 tokens/seconde sur Llama 3.1 405B en utilisant les systèmes GB200 selon les résultats de MLPerf Inference v5.0, montrant une amélioration par puce de 2,86x par rapport à H200. L'architecture NVL72 GB200 associe 72 GPU Blackwell à 36 CPU Grace par rack, délivrant 1,44 exaFLOPS avec 13,5 To de mémoire connectée NVLink.

Le système d'évaluation ClusterMAX de SemiAnalysis a placé CoreWeave dans la catégorie Platinum lors de son lancement en mars-avril 2025, en l'évaluant par rapport à AWS, Google Cloud, Azure et d'autres fournisseurs sur la base de plus de 50 exigences techniques. Cette évaluation indépendante valide la différenciation technique, bien que le système d'évaluation prévoie des mises à jour régulières en fonction de l'évolution du paysage concurrentiel.

Les partenariats technologiques accélèrent les capacités des plateformes.

Le partenariat avec NVIDIA va au-delà des relations habituelles avec les fournisseurs, NVIDIA détenant une participation d'environ 6 % évaluée à près de 1,6 milliard de dollars en mai 2025. Cette intégration profonde se manifeste par des déploiements cohérents de nouvelles architectures et des efforts de co-ingénierie sur les optimisations. Les soumissions conjointes de MLPerf démontrent cette collaboration technique.

Le déploiement par IBM de l'infrastructure CoreWeave pour la formation au modèle Granite s'appuie sur des systèmes GB200 avec un réseau InfiniBand Quantum-2. Le partenariat d'infrastructure de Dell comprend des serveurs PowerEdge XE9712 avec GB200 NVL72 dans des racks refroidis par liquide. VAST Data assure le stockage dans tous les centres de données CoreWeave grâce à sa plate-forme d'architecture désagrégée.

L'acquisition de Weights & Biases pour environ 1,7 milliard de dollars (finalisée le 5 mai 2025) crée une plateforme d'IA intégrée combinant l'infrastructure et les capacités MLOps. La plateforme, utilisée par plus de 1 400 entreprises, dont OpenAI et Meta, maintient l'interopérabilité tout en ajoutant des outils de développement de modèles et de surveillance.

La trajectoire future équilibre la croissance et la viabilité financière.

Les initiatives prospectives de CoreWeave comprennent plusieurs développements clés. Le déploiement du GB300 NVL72 (juillet 2025) promet ce que NVIDIA commercialise comme "des améliorations de 50x dans le rendement de l'inférence du modèle de raisonnement", bien qu'il s'agisse de projections du fournisseur plutôt que de points de référence vérifiés de manière indépendante. La location ponctuelle de GPU, lancée fin 2025, fournira des instances interruptibles à moindre coût avec une tarification dynamique.

L'expansion européenne, d'un montant total de 3,5 milliards de dollars, établit la souveraineté des données grâce à des installations alimentées par des énergies renouvelables qui répondent aux exigences du GDPR. L'entreprise poursuit sa montée en puissance pour atteindre 1,6 gigawatt de capacité électrique sous contrat, tout en développant ses capacités de refroidissement liquide pour prendre en charge le matériel de nouvelle génération.

Les défis financiers exigent une navigation prudente. Avec plus de 11 milliards de dollars de dettes générant environ 1 milliard de dollars de frais d'intérêts annuels, CoreWeave doit trouver un équilibre entre une croissance agressive et un chemin vers la rentabilité. Le risque de concentration de la clientèle reste élevé, Microsoft représentant 62 % du chiffre d'affaires de 2024. La société a signalé des pertes croissantes au deuxième trimestre 2025, malgré un chiffre d'affaires trimestriel de 1,21 milliard de dollars.

L'opportunité de marché reste substantielle, IDC prévoyant 500 milliards de dollars de dépenses annuelles pour l'infrastructure de l'IA d'ici 2027. L'approche spécialisée et les avantages techniques de CoreWeave lui permettent de capturer une valeur significative, bien que les risques d'exécution persistent compte tenu des besoins en capitaux, de la dynamique concurrentielle et de la nécessité de diversifier la base de clients tout en maintenant la dynamique de croissance.

Conclusion

CoreWeave a architecturé une infrastructure d'IA spécialisée qui apporte des avantages mesurables grâce à l'architecture Kubernetes bare-metal, au refroidissement liquide prenant en charge des densités de rack de 130 kW et au déploiement cohérent des dernières technologies de NVIDIA en tant que premier sur le marché. Leur transformation du minage de crypto-monnaie pour devenir le seul fournisseur classé Platinum dans le système ClusterMAX de SemiAnalysis (à partir de mars 2025) démontre l'exécution réussie d'une stratégie ciblée. Avec des réalisations vérifiables, notamment la plus grande soumission de formation MLPerf - Lama 3.1 405B en 27,3 minutes avec 2 496 GPU GB200 - et un carnet de commandes de 30,1 milliards de dollars, CoreWeave s'est imposée comme une infrastructure essentielle pour le développement de l'IA.

Toutefois, pour aller de l'avant, il faut relever des défis de taille, notamment une dette de plus de 11 milliards de dollars, une concentration de la clientèle, Microsoft représentant la majorité des revenus de 2024, et la concurrence d'offres d'hyperscalers de plus en plus performantes. Alors que l'entreprise se rapproche des 2,2 gigawatts de capacité électrique sous contrat et déploie des systèmes de nouvelle génération, sa capacité à maintenir son leadership technique tout en atteignant la viabilité financière déterminera si cet ancien mineur de crypto-monnaie peut remodeler de façon permanente le paysage de l'infrastructure de l'IA.

Données à jour au 15 août 2025. Les sources comprennent les dépôts des sociétés, les documents de la SEC, les indices de référence MLPerf et l'analyse de l'industrie de SemiAnalysis.

Références

  1. CoreWeave - Formulaire S-1 (déclaration d'enregistrement initial), SEC, États-Unis, déposé le 3 mars 2025. (Historique du chiffre d'affaires ; croissance de 737% en 2024 ; historique de la société)(SEC)

  2. CoreWeave, Inc - Prospectus (formulaire 424B4), SEC des États-Unis, avril 2025. (Concentration de la clientèle ; Microsoft = 62 % des recettes en 2024.)(SEC)

  3. CoreWeave - "CoreWeave Reports Strong Second Quarter 2025 Results", Business Wire/IR, 12 août 2025. (T2 1,212 milliards de dollars de revenus, 30,1 milliards de dollars de carnet de commandes ; ~470 MW actifs, ~2,2 GW sous contrat; OpenAI 11,9 milliards de dollars + 4 milliards de dollars d'expansion).(Business Wire)

  4. Reuters - "CoreWeave revenue beats estimates on AI boom but shares fall on bigger loss", 12 août 2025. (Résultats du deuxième trimestre ; 33 centres de données.)(Reuters)

  5. Reuters - "CoreWeave raises $7.5 billion in debt at $19B valuation", 17 mai 2024. (Crédit privé ; évaluation de 19 milliards de dollars).

  6. Reuters - "CoreWeave closes $650 million secondary share sale... valued at $23 billion", 13 novembre 2024.( Évaluation secondaire de 23 milliards de dollars )(Reuters)

  7. SemiAnalysis - "Introducing the Cloud GPU Performance Rating System - ClusterMAX (Q2 2025)", avril 2025. (Méthodologie ClusterMAX ; CoreWeave = Platinum.)(SemiAnalysis)

  8. CoreWeave - "Blackwell à l'échelle : Disponibilité générale de la GB200 NVL72 sur CoreWeave", 4 février 2025. (Premier à GA avec GB200 NVL72.)(Reuters)

  9. CoreWeave - "First NVIDIA GB300 NVL72 Deployment" (blog), 3 juillet 2025. (Premier déploiement du GB300 NVL72.)(CoreWeave)

  10. Blog des développeurs NVIDIA - "Blackwell Ultra for the Era of AI Reasoning", 19 mars 2025. (**"10× TPS par utilisateur" + "5× TPS par MW" ⇒ "jusqu'à 50× le rendement", affirmation marketing).(Développeur NVIDIA)

  11. MLCommons - Résultats de la formation MLPerf v5.0 (2025). (Llama-3.1 405B 27.3 minutes sur 2,496 GB200; plus grande soumission.)(Microsoft Learn)

  12. MLCommons - MLPerf Inference v5.0 (Data Center) Résultats (2025). (Llama-3.1 405B débit/latenceincl.comparaison GB200 vs H200 utilisée dans les résumés des fournisseurs).(Microsoft Learn)

  13. AWS - Instances P5 / Mise en réseau EFA (doc/blog officiel).(Jusqu'à 3 200 Gbps de réseau d'instance sur p5 avec EFA/SR-IOV.)(Amazon Web Services, Inc.)

  14. Microsoft Azure - Page produit "ND H100 v5-Series (Preview)".(1,6-3,2 Tbps-class networking.)(AWS Documentation)

  15. Google Cloud Blog - "A3 Ultra : 3.2 Tbps de réseau GPU par VM" (A3/A3 Ultra launch material).(3,2 Tbps par VM.)(Google Cloud)

  16. Dell Technologies - "Dell ships first PowerEdge XE9712 servers with NVIDIA GB200 NVL72 to CoreWeave", 20 juin 2025. (Partenaire de livraison à l'échelle du rack, refroidi par liquide.)(CoreWeave)

  17. VAST Data - "Scale-out AI performance at CoreWeave" (étude de cas/page de solution), 2025. (VAST déployé dans les centres de données CoreWeave ; architecture E/S.)(CoreWeave)

  18. Weights & Biases - "We're joining CoreWeave" (annonce d'acquisition), 5 mai 2025. (clôture/calendrier de l'opération W&B ; orientation de l'intégration)(FinTech Weekly - Page d'accueil)

  19. Reuters - "CoreWeave to invest an additional $2.2B in Europe, taking total to $3.5B", 5 juin 2024. (Échelle/localisations de l'expansion européenne.)(Reuters)

  20. Investor's Business Daily - "Nvidia-backed CoreWeave's IPO filing shows big revenue jump... Microsoft 62% ; Nvidia 6% stake", mars 2025. (Corrobore la participation de NVIDIA de ~6% notée dans les dossiers/la presse)(Investisseurs)

Suivant
Suivant

Guide local du matériel LLM 2025 : Prix et spécifications