Refroidissement liquide vs air : Le guide des baies GPU de 50 kW (2025)
La croissance exponentielle des charges de travail liées à l'IA a poussé le refroidissement des centres de données à un point d'inflexion critique. Alors que les densités des racks de GPU dépassent les 50 kW - avec des systèmes de nouvelle génération exigeant 100 kW et plus - le refroidissement par air traditionnel a atteint ses limites physiques fondamentales. Cette analyse complète révèle comment l'industrie navigue dans cette transformation thermique grâce à des technologies de refroidissement liquide avancées, permettant des économies d'énergie de 10 à 21 %, une réduction de 40 % des coûts de refroidissement et la mise en place de l'infrastructure nécessaire à la révolution de l'IA.
Quand l'air devient le goulot d'étranglement
L'échec du refroidissement par air à des densités élevées n'est pas progressif, c'est une falaise. À 50 kW par rack, la physique devient impitoyable : le refroidissement nécessite 7 850 pieds cubes par minute (CFM) de flux d'air pour un différentiel de température de 20°F. Doublez ce chiffre à 100 kW et vous aurez besoin de 15 700 CFM, ce qui crée des vents de la force d'un ouragan dans les prises d'air des serveurs qui ne mesurent que 2 à 4 pouces carrés. L'équation fondamentale d'évacuation de la chaleur (Q = 0,318 × CFM × ΔT) révèle un défi insurmontable : à mesure que la densité augmente, le débit d'air requis augmente linéairement, mais la consommation d'énergie du ventilateur augmente avec le cube de la vitesse du ventilateur. Une augmentation de 10 % du débit d'air exige 33 % de puissance de ventilateur supplémentaire, créant une spirale de consommation d'énergie qui rend le refroidissement de l'air à haute densité économiquement et pratiquement impossible.
Les faits réels confirment ces limites théoriques. Un cas documenté a montré que 250 racks à seulement 6 kW passaient de 72°F à plus de 90°F en 75 secondes en cas de défaillance du refroidissement. Les centres de données traditionnels conçus pour des densités moyennes de 5 à 10 kW ne peuvent tout simplement pas gérer les charges de travail des GPU modernes. Même avec un confinement avancé des allées chaudes/froides, le refroidissement par air s'avère difficile au-delà de 40 kW, tandis que les systèmes non confinés subissent des pertes de capacité de 20 à 40 % en raison de la recirculation de l'air chaud. La nouvelle classe environnementale ASHRAE H1, explicitement créée pour les équipements à haute densité, limite les températures autorisées à 18-22°C, une plage impossible à maintenir avec le refroidissement par air à l'échelle des GPU.
Les technologies de refroidissement liquide transforment le possible.
Le passage au refroidissement par liquide représente plus qu'une amélioration progressive : il s'agit d'une réorganisation fondamentale de l'évacuation de la chaleur. Le coefficient de transfert thermique de l'eau est 3 500 fois supérieur à celui de l'air, ce qui permet d'obtenir des capacités de refroidissement qui font des baies de plus de 100 kW des installations courantes plutôt que remarquables.
Le refroidissement direct des puces est à la pointe de la transformation, avec des plaques froides dotées de microcanaux (27-100 microns) fixées directement sur les processeurs. Fonctionnant avec une eau d'alimentation à 40°C et une eau de retour à 50°C, ces systèmes éliminent 70 à 75 % de la chaleur du rack par le liquide tout en maintenant un PUE partiel de 1,02 à 1,03. Les implémentations modernes prennent en charge 1,5 kW+ par puce avec des débits de 13 litres par minute pour un serveur de 9 kW. Les 25 à 30 % de chaleur restants - provenant de la mémoire, des disques et des composants auxiliaires - nécessitent toujours un refroidissement par air, ce qui fait de ces systèmes hybrides un choix pratique pour la plupart des déploiements.
Le refroidissement par immersion repousse les limites en immergeant des serveurs entiers dans des fluides diélectriques. Les systèmes monophasés utilisant des huiles minérales coûtent entre 50 et 100 dollars par gallon et supportent régulièrement 200 kW par rack. Les systèmes à deux phases promettent un transfert de chaleur supérieur grâce à l'ébullition et à la condensation, mais ils se heurtent à des difficultés : les fluides fluorocarbonés coûtent 500 à 1 000 dollars le gallon, et l'arrêt de la production par 3M d'ici à 2025 en raison de préoccupations environnementales a gelé l'adoption. La complexité de la technologie - boîtiers scellés, risques de cavitation et réglementations sur les PFAS - limite le déploiement à des applications spécialisées.
Les unités de distribution du liquide de refroidissement (CDU) constituent l'épine dorsale de l'infrastructure de refroidissement liquide. Les unités modernes vont des systèmes de 7 kW montés en rack aux géants de plus de 2 000 kW comme le CHx2000 de CoolIT. Les principaux fournisseurs - Vertiv, Schneider Electric, Motivair et CoolIT - proposent des solutions dotées d'une redondance N+1, d'une filtration de 50 microns et d'entraînements à fréquence variable pour l'adaptation de la charge. Le marché des CDU, évalué à 1 milliard de dollars en 2024, devrait atteindre 3,6 milliards de dollars d'ici 2031 (taux de croissance annuel moyen de 20,5 %), reflétant l'adoption rapide du refroidissement liquide.
L'art et l'économie de la modernisation
La transition des centres de données existants vers le refroidissement liquide nécessite une orchestration minutieuse. L'approche la plus réussie est celle d'une migration progressive : commencer par 1 ou 2 baies à haute densité, étendre à une rangée, puis faire évoluer l'installation en fonction de la demande. Trois voies principales de modernisation ont émergé : les CDU liquide-air qui exploitent la climatisation existante, les échangeurs de chaleur à porte arrière qui peuvent refroidir jusqu'à 40 kW par baie, et les solutions directes sur puce pour une efficacité maximale.
Les modifications de l'infrastructure constituent le principal défi. L'infrastructure électrique devient souvent le facteur limitant - les installations conçues pour des charges moyennes de 5 à 10 kW ne peuvent pas supporter des baies de plus de 50 kW, quelle que soit la capacité de refroidissement. La plomberie nécessite une modélisation CFD minutieuse dans les environnements à plancher surélevé ou une installation en hauteur avec des bacs de récupération dans les constructions en dalles. La charge au sol, en particulier pour les systèmes d'immersion, peut dépasser la capacité structurelle dans les installations plus anciennes.
L'analyse des coûts révèle une rentabilité convaincante malgré un investissement initial élevé. Une étude de la Commission californienne de l'énergie a documenté un système complet de refroidissement liquide pour 1 200 serveurs répartis sur 17 racks, pour un coût total de 470 557 dollars, soit 392 dollars par serveur, y compris les modifications apportées à l'installation. Les économies d'énergie annuelles de 355 MWh (39 155 $ à 0,11 $/kWh) donnent un retour sur investissement simple de 12 ans, bien que les mises en œuvre optimisées donnent des retours sur investissement de 2 à 5 ans. L'analyse de Schneider Electric montre des économies d'investissement de 14 % grâce au compactage 4x des racks, tandis que les économies opérationnelles comprennent une réduction de 10,2 % de la puissance totale du centre de données et une amélioration de 15,5 % de l'efficacité totale de l'utilisation.
Les défis d'intégration se multiplient dans les environnements hybrides. Même les installations "entièrement refroidies par liquide" ont besoin de 20 à 30 % de capacité de refroidissement par air pour les composants auxiliaires. Les systèmes de contrôle doivent coordonner plusieurs technologies de refroidissement, en surveillant à la fois les températures d'entrée des racks et les conditions de l'eau d'alimentation. La redondance devient critique - les échangeurs de chaleur des portes arrière doivent basculer sur le refroidissement par air lorsqu'ils sont ouverts pour l'entretien, tandis que les systèmes directs sur puce ont moins de 10 secondes de temps de fonctionnement à pleine charge.
Des pilotes à la production
Les déploiements dans le monde réel démontrent la maturité du refroidissement liquide. Meta est à la pointe de l'adoption à grande échelle, en mettant en œuvre le refroidissement liquide assisté par air dans plus de 40 millions de mètres carrés de centres de données. Leur conception de rack Catalina prend en charge 140 kW avec 72 GPU, tandis que le déploiement du refroidissement liquide à l'échelle de l'établissement vise à être achevé d'ici le début de l'année 2025. La transformation a nécessité la mise au rebut de plusieurs centres de données en construction pour des reconceptions optimisées pour l'IA, ce qui permet d'espérer une réduction des coûts de 31 % grâce à la nouvelle architecture.
Les sept années d'expérience de Google avec les TPU refroidies par liquide fournissent l'ensemble de données le plus complet de l'industrie. En déployant des systèmes en boucle fermée sur plus de 2000 TPU Pods à l'échelle du gigawatt, ils ont atteint un temps de fonctionnement de 99,999 % tout en démontrant une conductivité thermique 30 fois supérieure à celle de l'air. La cinquième génération de CDU, le projet Deschutes, sera intégrée à l'Open Compute Project, ce qui accélérera son adoption par l'ensemble de l'industrie.
Microsoft repousse les limites du refroidissement par immersion à deux phases en production, en utilisant des fluides diélectriques dont le point d'ébullition est inférieur de 50°C à celui de l'eau. Cette technologie permet de réduire de 5 à 15 % la puissance des serveurs tout en éliminant les ventilateurs de refroidissement. Son engagement à réduire de 95 % sa consommation d'eau d'ici à 2024 stimule l'innovation dans les systèmes à circuit fermé et à évaporation nulle.
Des fournisseurs spécialisés comme CoreWeave font la démonstration du refroidissement liquide pour les charges de travail d'IA. Prévoyant 4 000 déploiements de GPU d'ici fin 2024, ils atteignent des densités de racks de 130 kW avec une utilisation du système de 20 % supérieure à celle de leurs concurrents. Leurs conceptions optimisées pour les rails permettent d'économiser 3,1 millions d'heures de GPU grâce à une fiabilité accrue, et de déployer des clusters H100 en moins de 60 jours.
Répondre aux exigences thermiques des accélérateurs d'IA
Les spécifications des GPU révèlent pourquoi le refroidissement liquide est devenu obligatoire. Le NVIDIA H100 SXM5 fonctionne à un TDP de 700 W, ce qui nécessite un refroidissement liquide pour des performances optimales. Le H200 conserve la même enveloppe énergétique tout en fournissant 141 Go de mémoire HBM3e à 4,8 To/s, soit 1,4 fois plus de bande passante, ce qui génère une chaleur proportionnelle. Le futur B200 repousse encore les limites : 1 200 W pour les variantes refroidies par liquide contre 1 000 W pour celles refroidies par air, avec une performance FP4 de 20 PFLOPS exigeant une gestion thermique sophistiquée.
Le GB200 NVL72, qui embarque72 GPU Blackwell et 36 CPU Grace dans un seul rack, représente le point final de la viabilité du refroidissement par air. Avec une puissance de 140 kW, il nécessite un refroidissement liquide obligatoire par le biais de plaques froides nouvellement développées et de CDU de 250 kW. Les considérations au niveau du système augmentent la complexité : Les interconnexions NVSwitch ajoutent 10 à 15 W chacune, tandis que la mémoire à grande vitesse et les systèmes d'alimentation apportent une chaleur supplémentaire substantielle.
L'analyse technique de JetCool démontre des différences de performances frappantes : leur SmartPlate H100 atteint une résistance thermique de 0,021°C/W, ce qui permet aux puces de fonctionner à 35°C de moins que les alternatives à l'air tout en supportant des températures d'entrée de 60°C. Cette réduction de la température permet théoriquement de multiplier par 8 la durée de vie des GPU tout en assurant des performances maximales soutenues, ce qui est essentiel pour les entraînements à l'IA sur plusieurs semaines.
La feuille de route pour 2030
L'industrie se trouve à un point de transformation où les meilleures pratiques se transforment rapidement en exigences. La nouvelle classe environnementale H1 de l'ASHRAE (18-22°C recommandés) reconnaît que les directives traditionnelles ne peuvent pas s'adapter aux charges de travail de l'IA. Les normes de refroidissement liquide de l'Open Compute Project favorisent l'interopérabilité, tandis que les exigences d'immersion Rev. 2.10 établissent des processus de qualification pour les technologies émergentes.
Le refroidissement par immersion en deux phases, malgré les difficultés actuelles, est prometteur pour une adoption par le grand public entre 2025 et 2027. Les projections du marché indiquent une croissance de 375 millions de dollars (2024) à 1,2 milliard de dollars (2032), grâce à un transfert de chaleur supérieur permettant d'atteindre une puissance de plus de 1 500 W par puce. Des innovations comme Accelsius NeuCool et des alternatives aux fluides 3M abandonnés répondent aux préoccupations environnementales tout en maintenant les performances.
L'optimisation pilotée par l'IA donne des résultats immédiats. La mise en œuvre de Google DeepMind a permis de réduire de 40 % l'énergie de refroidissement grâce à l'apprentissage en temps réel, tandis que l'optimisation du refroidissement de l'espace blanc de Siemens et d'autres plateformes similaires prolifèrent. Ces systèmes prévoient les défaillances, optimisent la chimie du liquide de refroidissement et s'adaptent dynamiquement aux modèles de charge de travail - des capacités qui, selon 91 % des fournisseurs, devraient être omniprésentes d'ici cinq ans.
La récupération de la chaleur perdue transforme le passif en actif. Stockholm Data Parks chauffe déjà 10 000 foyers avec les déchets des centres de données, et vise 10 % du chauffage de la ville d'ici à 2035. La pression réglementaire accélère l'adoption : L'Allemagne impose une réutilisation de 20 % de la chaleur d'ici à 2028, tandis que le titre 24 de la Californie exige une infrastructure de récupération dans les nouvelles constructions. La technologie des pompes à chaleur permet d'élever la chaleur résiduelle de 30-40°C à 70-80°C pour le chauffage urbain, créant ainsi des flux de revenus à partir d'une énergie autrefois rejetée.
Faire la transition
Le succès du déploiement du refroidissement liquide nécessite une planification stratégique à plusieurs niveaux. Les entreprises devraient commencer par des CDU liquide-air simples pour une entrée en scène à moindre coût, mais elles doivent d'abord évaluer l'infrastructure électrique - unecapacité électrique inadéquatedisqualifie la faisabilité de l'adaptation, quelle que soit la technologie de refroidissement. Commencer avec 1 ou 2 racks pilotes permet d'apprendre avant de passer à l'échelle supérieure, tandis que le maintien d'une expertise en matière de refroidissement de l'air reste essentiel pour les opérations hybrides.
La modélisation financière doit tenir compte de la valeur totale du système. Alors que l'investissement initial varie de 1 000 à 2 000 dollars par kW de capacité de refroidissement, les économies opérationnelles s'accumulent : 27 % de réduction de la puissance des installations dans les implémentations optimisées, 30 % d'économies d'énergie de refroidissement par rapport aux systèmes conventionnels et, surtout, la possibilité de déployer des charges de travail d'IA génératrices de revenus, ce qui est impossible avec le refroidissement par air. Les meilleures mises en œuvre atteignent des retours sur investissement inférieurs à 2 ans grâce à une conception minutieuse : le contournement de l'intégration de refroidisseurs inefficaces permet d'économiser 20 à 30 %, tandis que le fait de se concentrer sur les applications à plus forte densité maximise le retour sur investissement.
Les équipes techniques ont besoin de nouvelles compétences. Au-delà des connaissances traditionnelles en CVC, le personnel doit comprendre la chimie des liquides de refroidissement, les protocoles d'intervention en cas de fuite et les systèmes de contrôle intégrés. Les partenariats avec les fournisseurs s'avèrent essentiels : une assistance 24 heures sur 24 et 7 jours sur 7 pour les composants spécialisés et une maintenance préventive régulière à intervalles de 6 mois deviennent des nécessités opérationnelles. Les protocoles de sécurité s'étendent à la manipulation des fluides diélectriques et à la gestion des systèmes sous pression.
Le marché fait preuve d'une dynamique impressionnante. Le refroidissement liquide des centres de données passe de 4,9 milliards de dollars (2024) à 21,3 milliards de dollars prévus (2030), avec un TCAC de 27,6 %. Le refroidissement direct de la puce en une seule phase devient la norme pour les charges de travail d'IA d'ici 2025-2026, tandis que l'immersion en deux phases atteint l'adoption générale d'ici 2027. D'ici 2030, les baies de 1MW nécessiteront un refroidissement liquide avancé en tant que norme, et non plus en tant qu'exception.
Conclusion
Les données physiques sont claires : le refroidissement par air a atteint ses limites. À des densités de rack de 50 à 100 kW, les contraintes thermodynamiques fondamentales rendent le refroidissement par liquide non seulement préférable, mais obligatoire. La transition représente le changement d'infrastructure le plus important de l'histoire des centres de données, nécessitant de nouvelles compétences, des investissements considérables et une transformation opérationnelle. Pourtant, les avantages - 10 à 21 % d'économies d'énergie, 40 % de réduction des coûts de refroidissement, une fiabilité multipliée par 8 et, surtout, la possibilité de déployer une infrastructure d'IA de nouvelle génération - rendent cette évolution inévitable. Les entreprises qui maîtrisent aujourd'hui le refroidissement liquide seront à l'origine des percées de demain dans le domaine de l'IA. Celles qui tardent à le faire seront distancées par l'industrie, qui se dirige vers des densités de calcul de plus en plus élevées. Nous avons atteint le mur thermique ; le refroidissement liquide nous permettra de le franchir.
Références
Bibliothèque numérique ACM. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems". Actes de la 16e conférence internationale de l'ACM sur les systèmes énergétiques futurs et durables. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX. "Comparaison des configurations NVIDIA Blackwell". 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
---. "Top 5 des considérations pour le déploiement de NVIDIA Blackwell". 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv. "[1309.4887] iDataCool : HPC with Hot-Water Cooling and Energy Reuse (HPC avec refroidissement par eau chaude et réutilisation de l'énergie). 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.
---. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.
Attom. "Ashrae's New Thermal Guideline Update : A New High Density Trend (Mise à jour de la nouvelle directive thermique de l'Ashrae : une nouvelle tendance en matière de haute densité). Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.
Chilldyne. "Conception d'un système de refroidissement liquide de haute puissance : exigences d'une solution directe à la puce pour les baies de 500 kW". Chilldyne | Liquid Cooling. 29 juillet 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
Compass Datacenters. "Qu'est-ce que le refroidissement des centres de données ? 2025. https://www.compassdatacenters.com/data-center-cooling/.
Converge Digest. "Meta présente les améliorations de l'infrastructure de l'IA au sommet 2024 de l'OCP". 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD. "Guide complet du refroidissement par liquide : L'avenir des centres de données haute performance et des déploiements d'IA". 2025. https://www.corewinner.com/en/blog/detail/52.
CoreWeave. "Construire des grappes d'IA pour les entreprises 2025". 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
---. "Les GPU au service des modèles d'IA et de l'innovation". 2025. https://www.coreweave.com/products/gpu-compute.
Conseillers en cyberdéfense. "Maintenance prédictive pilotée par l'IA : L'avenir de la fiabilité des centres de données". 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
Catalogue des centres de données. "Meta prévoit de passer au refroidissement liquide pour l'infrastructure de son centre de données". 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
Dynamique des centres de données. "Introduction au refroidissement liquide dans les centres de données". 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
---. "Les hyperscalers se préparent à des baies de 1MW à l'OCP EMEA ; Google annonce un nouveau CDU". 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
---. "Les nouvelles directives de l'ASHRAE remettent en question les efforts d'efficacité. 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
---. "Le PDG de Nvidia confirme que le prochain système sera refroidi par liquide. 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
---. "Optimisation de l'efficacité des centres de données grâce au refroidissement liquide direct. 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
---. Le refroidissement à deux phases sera touché par les règles de l'EPA et par le retrait de 3M des PFAS, des "produits chimiques à vie". 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.
Data Center Frontier. "8 tendances qui façonneront l'industrie des centres de données en 2025". 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
---. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center (Meilleures pratiques pour le déploiement de serveurs refroidis par liquide dans votre centre de données). 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.
---. "Google développe une nouvelle technologie de refroidissement pour économiser l'eau. 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
---. "Google passe au refroidissement liquide pour l'analyse des données de l'IA". 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
---. "Meta prévoit de passer au refroidissement liquide pour l'infrastructure de son centre de données". 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
---. "Meta donne un aperçu de la nouvelle conception des centres de données pour un avenir alimenté par l'IA. 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.
---. "OCP 2024 Spotlight : Meta présente un rack d'IA de 140 kW refroidi par liquide ; Google envisage de faire appel à la robotique pour muscler les GPU Hyperscaler". 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
---. "Repousser les limites du refroidissement par air dans les environnements à haute densité". 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
---. "Rapport : Meta prévoit de passer au refroidissement liquide dans le cadre de la refonte de son centre de données centré sur l'IA". 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
---. "L'importance du refroidissement liquide pour l'Open Compute Project (OCP)". 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.
---. "L'utilisation de la chaleur résiduelle est la prochaine étape de l'industrie des centres de données vers l'énergie nette zéro". 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.
---. "La technologie de refroidissement liquide HyperCool de ZutaCore prend en charge les GPU avancés H100 et H200 de NVIDIA pour une IA durable". 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.
Connaissance des centres de données. "Stratégies de modernisation des centres de données". 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
---. "Refroidissement hybride : Le pont vers le refroidissement liquide intégral dans les centres de données". 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
Data Centre Review. "Tirer le meilleur parti de la chaleur résiduelle des centres de données". Juin 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
Datacenters. "Le rôle de CoreWeave dans le partenariat Cloud de Google et OpenAI redéfinit l'infrastructure de l'IA". 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.
Dell. "Quand passer du refroidissement par air au refroidissement par liquide pour votre centre de données". 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
Digital Infra Network. "Google et l'IA : la refonte de l'alimentation et du refroidissement". 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.
Enconnex. "Data Center Liquid Cooling vs. Air Cooling". 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
L'ingénierie chez Meta. "La vision du matériel d'IA ouvert de Meta". 15 octobre 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
Fortune Business Insights. "Marché du refroidissement par immersion liquide des centres de données à deux phases, 2032". 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
Google Cloud. "Enabling 1 MW IT racks and liquid cooling at OCP EMEA Summit". Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.
GR Cooling. "Exploration du refroidissement liquide avancé : Immersion vs. Direct-to-Chip Cooling". 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
---. "Refroidissement par immersion biphasé ou monophasé". 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR. "Refroidissement liquide direct sur la puce". 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef. "Chambres hybrides : la solution combinée pour le refroidissement par air et par liquide dans les centres de données". 2025. https://hiref.com/news/hybrid-rooms-data-centers.
HPCwire. "H100 Fading : Nvidia Touts 2024 Hardware with H200". 13 novembre 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx. "Gestion thermique pour les centres de données 2025-2035 : Technologies, marchés et opportunités". 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool. "Direct Liquid Cooling vs. Immersion Cooling for Data Centers". 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
---. "Système de refroidissement liquide pour le GPU NVIDIA H100". 2025. https://jetcool.com/h100/.
Maroonmonkeys. "CDU. 2025. https://www.maroonmonkeys.com/motivair/cdu.html.
Microsoft. "Projet Natick Phase 2". 2025. https://natick.research.microsoft.com/.
Actualités Microsoft. "Pour refroidir les serveurs des centres de données, Microsoft se tourne vers un liquide bouillant". 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
Solutions de refroidissement pour centres de données de Nortek. "L'utilisation de la chaleur résiduelle est la prochaine étape de l'industrie des centres de données vers l'énergie nette zéro. 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
NVIDIA. "H200 Tensor Core GPU". 2025. https://www.nvidia.com/en-us/data-center/h200/.
Open Compute Project. "La fondation Open Compute Project étend son initiative de systèmes ouverts pour l'IA". 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.
P&S Intelligence. "Taille, part et analyse des tendances du marché du refroidissement par immersion, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
PR Newswire. "Supermicro présente des SuperClusters AI à l'échelle du rack, prêts à l'emploi et refroidis par liquide pour NVIDIA Blackwell et NVIDIA HGX H100/H200 ". 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.
---. "La technologie de refroidissement liquide HyperCool de ZutaCore prend en charge les GPU avancés H100 et H200 de NVIDIA pour une IA durable". 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.
Rittal. "Qu'est-ce que le refroidissement direct des puces - et le refroidissement par liquide est-il l'avenir ? 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.
ScienceDirect. "Refroidissement liquide des centres de données : Une nécessité face aux défis". 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.
SemiAnalyse. "Datacenter Anatomy Part 1 : Electrical Systems (Anatomie du centre de données, partie 1 : systèmes électriques). 14 octobre 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
---. "Anatomie du centre de données - Partie 2 - Systèmes de refroidissement". 13 février 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
---. "Formation multi-centres de données : OpenAI's Ambitious Plan To Beat Google's Infrastructure". 4 septembre 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs". Base de données GPU de TechPowerUp. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.
TechTarget. "Refroidissement par liquide vs. refroidissement par air dans le centre de données". 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys. "Comment les principaux développeurs de LLM alimentent le boom du refroidissement liquide". 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
Upsite Technologies. "Comment la densité des racks et le Delta T influencent votre stratégie de gestion des flux d'air". 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
---. "Quand rénover le centre de données pour l'adapter à l'IA, et quand ne pas le faire". 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.
Uptime Institute. "Meilleures pratiques en matière de refroidissement des centres de données". 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
---. "Les attentes en matière de performances du refroidissement par liquide doivent être revues à la lumière de la réalité". Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.
Utility Dive. "The 2025 outlook for data center cooling" (Les perspectives 2025 pour le refroidissement des centres de données). 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv. "Déploiement du refroidissement liquide dans les centres de données : Installation et gestion des unités de distribution du liquide de refroidissement (CDU)". 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
---. "Options de refroidissement par liquide et par immersion pour les centres de données". 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---. "Options de refroidissement liquide pour les centres de données". 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---. "Quantification de l'impact sur le PUE et la consommation d'énergie lors de l'introduction du refroidissement par liquide dans un centre de données refroidi par air". 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
---. "Comprendre le refroidissement direct de la puce dans l'infrastructure HPC : A deep dive into liquid cooling" (Comprendre le refroidissement direct de la puce dans l'infrastructure HPC : une plongée profonde dans le refroidissement liquide) 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
---. "Vertiv™ CoolPhase CDU | High Density Solutions". 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.
WGI. "Refroidir l'IA et les centres de données". 2025. https://wginc.com/cooling-down-ai-and-data-centers/.