Câblage structuré ou conduits refroidis par liquide : Conception pour les baies de 100 kW et plus

Autrefois, les centres de données comptaient leurs victoires en mégawatts ; aujourd'hui, ils se vantent de kilowatts par rack. Alors que les charges de travail liées à l'IA augmentent et que la densité des racks dépasse la barre des 100 kW, les équipes chargées des installations sont confrontées à un nouvel exercice d'équilibre : maintenir le flux de données à travers des voies de fibre optique impeccables tout en éliminant rapidement la chaleur étouffante. Les enjeux sont tangibles - une conception bâclée signifie des GPU grillés et des factures d'énergie qui s'envolent - et c'est pourquoi chaque voie, tuyau et panneau de brassage doit peser de tout son poids dès le premier jour.

Le seuil de 100 kW

Les tablettes GPU modernes consomment aujourd'hui plus de 100 kW par rack, une charge électrique autrefois réservée aux petites sous-stations.¹ Les opérateurs qui visent ces densités doivent élever l'installation de câbles et le réseau de refroidissement au rang d'infrastructure de premier plan. En négligeant l'un ou l'autre de ces systèmes, l'espace blanc de qualité supérieure se transforme en un radiateur surdimensionné au lieu d'une salle de données productive.

Câblage structuré : La base de la fiabilité

Le câblage structuré organise les voies de cuivre et de fibre optique selon une hiérarchie rigoureuse et offre trois avantages essentiels :

-Circulation d'air sans entrave. Les troncs d'arbre regroupés protègent les plenums sous le plancher et en hauteur, de sorte que les unités CRAH maintiennent un débit d'air froid constant.

-Réduction dutemps moyen de réparation. Les ports clairement identifiés et les cassettes préterminées permettent aux techniciens d'isoler et de restaurer les liaisons défaillantes en quelques minutes.

-Intégrité du signal. Les cassettes haute densité respectent le rayon de courbure approprié, protégeant les optiques 400 GbE des pertes dues aux micro-courbures.²

Les halles refroidies par air qui fonctionnent à 100 kW ou plus ne réussissent que si le câblage ne bloque jamais le flux d'air critique.

Conduits refroidis par liquide : Extraction thermique directe

Le refroidissement par air perd de son efficacité au-delà d'environ 50 kW par rack. Le refroidissement par liquide - par l'intermédiaire de boucles à plaques froides ou de réservoirs d'immersion - élimine la chaleur de la puce et l'envoie vers des échangeurs de chaleur externes.

-Capacité thermique supérieure. L'eau évacue la chaleur 3 500 fois plus efficacement par volume que l'air à la même élévation de température.

-Amélioration de l'efficacité énergétique. L'abaissement des températures d'alimentation du liquide de refroidissement permet aux opérateurs d'augmenter les points de consigne du refroidisseur et de réduire le PUE de 10 à 20 % dans les déploiements de production.⁴

-Coordination des chemins. Les tuyaux de liquide ont besoin d'un espace dédié, c'est pourquoi les équipes de conception les séparent des troncs optiques au stade de l'agencement.

Faits marquants des performances comparées

-Élimination de la chaleur : Le câblage structuré favorise la circulation de l'air, tandis que les conduits refroidis par liquide extraient la chaleur directement au niveau des composants.

-Maintenance: Les équipes de câblage échangent les cassettes et vérifient rapidement les liaisons ; les spécialistes du refroidissement engagent des raccords rapides secs et effectuent des contrôles d'étanchéité.

- Besoin d'espace : Les faisceaux de fibres restent compacts ; les tuyaux de refroidissement nécessitent un plus grand diamètre et un plus grand rayon de courbure.

-Impact des défaillances: Une simple rupture de fibre isole un lien ; une fuite de liquide de refroidissement peut entraîner un temps d'arrêt plus important.

-Compétencesrequises : Les travaux de câblage font appel à des techniciens en réseaux basse tension, tandis que les systèmes liquides requièrent des experts en mécanique et en manipulation des fluides.

La plupart des installations à grande échelle combinent les deux systèmes : le câblage structuré transporte les données et les conduits de liquide évacuent la chaleur.

Méthodologie de déploiement rapide d'Intro l'sIntrol

Les équipes d'Introl sur le terrain ont installé plus de 100 000 GPU et acheminé plus de 40 000 miles de fibre à travers des clusters d'IA mondiaux.⁵ Une équipe de 550 ingénieurs se mobilise dans les 72 heures, installe 1 024 nœuds H100 et 35 000 patchs de fibre en 14 jours, et livre des systèmes de confinement entièrement instrumentés dans les délais.⁶

Les pratiques de base sont les suivantes

1. Chemins d'accès dédiés. Les plateaux aériens au-dessus des allées chaudes transportent les tuyaux de liquides ; les paniers mis à la terre sous le sol transportent les troncs de fibres.

2. Fibre à haute densité. Les troncs MPO à vingt-quatre brins minimisent la largeur des faisceaux, créant ainsi de l'espace pour les collecteurs de liquide de refroidissement.

3. Collecteurs à courte distance. Les collecteurs à crémaillère réduisent la longueur des tuyaux et créent des zones isolées de coupure sèche.

4. Formation interdisciplinaire. Les techniciens de réseau certifient les procédures de manipulation des fluides, tandis que le personnel mécanique maîtrise les tolérances de gestion des fibres.

Durabilité et développements futurs

Des ingénieurs du National Renewable Energy Laboratory captent la chaleur résiduelle au niveau des racks et l'injectent dans des réseaux de chauffage urbain, transformant ainsi l'énergie thermique excédentaire en chaleur collective.⁸ Les prochaines lignes directrices de l'ASHRAE augmentent les températures admissibles dans les racks, ouvrant la voie à une intégration plus étroite des systèmes de refroidissement par air et par liquide.⁹

Nos ingénieurs soumettent chaque nouvelle idée à des tests rigoureux dans notre laboratoire pilote, ne gardant que celles qui tiennent la route, et intègrent les gagnantes dans des projets réels, qu'il s'agisse d'une nouvelle construction ou de la modernisation d'un ancien bâtiment. Le résultat est facile à voir : une disposition plus serrée des rayonnages, des factures d'électricité moins élevées et une victoire en matière de développement durable dont l'équipe sur le terrain et les dirigeants peuvent être fiers.

Conclusions

Le câblage structuré garantit l'intégrité des données et la souplesse opérationnelle, tandis que les conduits refroidis par liquide assurent la stabilité thermique à des densités élevées. Les installations qui chorégraphient ces deux systèmes lors de la conception obtiennent des performances prévisibles, une consommation d'énergie optimisée et des délais de déploiement accélérés. Une planification minutieuse du cheminement, une installation disciplinée et une expertise interfonctionnelle transforment les baies de 100 kW d'un concept ambitieux en une réalité fiable.

Références (auteur-date de Chicago)

1. l'Uptime Institute. Enquête mondiale sur les centres de données 2024 : Keynote Report 146M. New York : Uptime Institute, 2024.

2. Cisco Systems. Fiber-Optic Cabling Best Practices for 400 G Data Centers. San José, CA : Livre blanc de Cisco, 2023.

3) American Society of Heating, Refrigerating and Air-Conditioning Engineers (Société américaine des ingénieurs en chauffage, réfrigération et climatisation). Thermal Guidelines for Data Processing Environments, 6e éd. Atlanta : ASHRAE, 2022.

4) Laboratoire national Lawrence Berkeley. Measured PUE Savings in Liquid-Cooled AI Facilities. Berkeley, CA : LBNL, 2024.

5. Introl. "Accelerate the Future of AI with Introl Managed GPU Deployments (Accélérer l'avenir de l'IA avec les déploiements de GPU gérés par Introl). Consulté le 26 juin 2025. https://introl.com/.

6. Introl. "Étude de cas de Francfort". Consulté le 26 juin 2025. https://introl.com/case-studies/frankfurt.

7. projet Open Compute. Solutions de refroidissement avancées : 2025 Specification Draft. San José, CA : Fondation OCP, 2025.

8. Huang, Wei. "Rack-Level Heat Recovery in Liquid-Cooled AI Clusters" (Récupération de chaleur au niveau des baies dans les grappes d'IA refroidies par liquide). Journal of Sustainable Computing 12, no. 3 (2024) : 45-58.

9. ASHRAE. Proposed Addendum C to Thermal Guidelines, projet de révision publique, janvier 2025.

Précédent
Précédent

Construire des centres de données dans une optique de développement durable : Ce qui marche

Suivant
Suivant

Pourquoi le NVIDIA GB300 NVL72 (Blackwell Ultra) est-il important ?