
Pour répondre à la problématique de la dissipation de chaleur générée par les puces IA, Microsoft propose une solution de liquid cooling nommée microfluide et directement installée au dos des composants.
Si dans les datacenters dédiés à l’IA, la puissance des systèmes nécessite un refroidissement liquide, Microsoft entend bien apporter cette technologie directement sur les puces IA. L’éditeur vient de présenter sa solution nommée « microfluidique » qu’il a validé en refroidissant un serveur simulant l’exécution d’une réunion Teams. Concrètement, « de minuscules canaux sont gravés directement à l’arrière de la puce en silicium, créant des rainures qui permettent au liquide de refroidissement de s’écouler directement sur la puce et d’évacuer plus efficacement la chaleur. L’équipe a également utilisé l’IA pour identifier les signatures thermiques uniques d’une puce et diriger le liquide avec plus de précision », a expliqué Microsoft dans un article de blog.
D’après les tests réalisés en laboratoire, en fonction des charges de travail et des configurations impliquées, l’approche de microfluide s’est avérée jusqu’à trois fois plus efficace que les plaques froides pour évacuer la chaleur. Cette technique de manipulation des fluides au niveau micrométrique a également permis de réduire de 65 % l’augmentation maximale de la température du silicium à l’intérieur d’un GPU, qui peut également varier en fonction du type de puce. L’équipe espère que cette technologie de refroidissement avancée améliorera aussi l’efficacité énergétique, un indicateur clé pour mesurer la consommation d’énergie par un centre de données, et réduira les coûts d’exploitation. Pour le prototypage, Microsoft s’est associée à la start-up suisse Corintis afin d’utiliser l’IA pour optimiser une conception inspirée du vivant et refroidir les points chauds des puces plus efficacement que les canaux verticaux classiques.
Une pression thermique croissante sur le matériel d’IA
Les charges de travail liées à l’IA et au calcul haute performance ont exercé une pression sans précédent sur l’infrastructure des datacenters. La dissipation thermique est devenue l’un des goulots d’étranglement les plus difficiles à résoudre, les méthodes traditionnelles telles que la circulation d’air et les plaques froides étant de moins en moins capables de suivre le rythme des dernières générations de puces. « Les accélérateurs modernes génèrent des charges thermiques que les systèmes à air ne peuvent tout simplement pas contenir, et même les boucles d’eau avancées sont mises à rude épreuve », explique Sanchit Vir Gogia, CEO et analyste en chef chez Greyhound Research.
Il ajoute « les problèmes immédiats ne sont pas seulement la montée en flèche du TDP des GPU, mais aussi les retards du réseau, la pénurie d’eau et l’incapacité des salles traditionnelles refroidies à l’air d’absorber la chaleur des racks fonctionnant à 80 ou 100 kilowatts ». Il poursuit en précisant que « les plaques froides et les solutions d’immersion ont prolongé le principe, mais seulement de façon marginale. Ils souffrent toujours de la résistance des interfaces thermiques qui étouffent la chaleur au niveau de la puce. La friction se situe dans le dernier mètre du chemin thermique, entre la jonction et le boîtier, et c’est là que les performances sont gaspillées. »
Le défi des coûts de refroidissement
Le refroidissement n’est pas seulement un défi technique, mais aussi économique. Les centres de données dépensent beaucoup pour gérer l’énorme chaleur générée par les serveurs, les équipements réseau et les processeurs graphiques. Le coût du refroidissement d’un centre de données représente donc également une dépense importante. « Selon l’analyse du coût total de possession (TCO) des infrastructures d’IA pour 2025, plus de 45 à 47 % du budget énergétique des centres de données est généralement consacré au refroidissement, et ce chiffre pourrait atteindre 65 à 70 % si l’on n’améliore pas l’efficacité des méthodes de refroidissement », a alerté Danish Faruqui, CEO de Fab Economics. « En 2024, le H100 de Nvidia affichait une consommation électrique de 700 watts par GPU, laquelle a doublé en 2025 avec le Blackwell B200 et le Blackwell Ultra B300, pour atteindre 1 000 W et 1 400 watts par GPU. D’ici à 2026, elle aura encore plus que doublé avec les GPU Rubin et Rubin Ultra, pour atteindre 1 800 W et 3 600 W. »
Le budget thermique par GPU double au moins chaque année. Par conséquent, afin de déployer les derniers GPU et les meilleures performances de calcul, il est impératif pour les hyperscalers et les NCP de résoudre les goulots d’étranglement thermiques. Selon M. Faruqui, le refroidissement direct sur silicium basé sur les microfluides peut limiter les dépenses de refroidissement à moins de 20 % du budget énergétique des datacenters, mais cela nécessiterait une optimisation significative du développement technologique en ce qui concerne la taille de la structure microfluidique, son emplacement et l’analyse des écoulements non laminaires dans les microcanaux. Si cet objectif est atteint, le refroidissement par microfluide pourrait être le seul moyen de respecter le budget TDP de 3,6 kW par GPU du Rubin Ultra.
Une mise à l’échelle difficile pour le microfluide
Le défi est universel. Les hyperscalers, notamment AWS, Google, Meta et Oracle, sont tous confrontés à une chaleur extrême des puces alors que la densité de puissance du matériel IA augmente considérablement. « L’augmentation de la charge thermique des dernières générations de silicium d’IA signifie que les solutions actuelles, en particulier les plaques froides, pourraient bloquer tout progrès d’ici à cinq ans seulement. Les contraintes thermiques représentent donc un défi universel pour tous les hyperscalers qui déploient des puces d’IA à haute puissance », a déclaré Brady Wang, directeur associé chez Counterpoint Research. « Et même si le microfluide n’est pas une idée nouvelle et qu’il existe plusieurs approches, il s’est avéré difficile pour l’ensemble du secteur de la mettre en œuvre à grande échelle », a-t-il ajouté.
Ces difficultés comprennent les risques liés à la fabrication, à la mise en œuvre et à l’exploitation. « La fabrication de canaux à l’échelle micrométrique augmente la complexité du processus et peut entraîner une perte de rendement en raison de la fragilité des plaquettes. Une étanchéité ultra-fiable est essentielle, car même des fuites mineures ou une contamination par des particules pourraient dégrader les performances des puces », a fait remarquer Manish Rawat, analyste chez TechInsights. « Contrairement aux plaques froides remplaçables, la seule option de maintenance pour le refroidissement intégré au silicium serait de remplacer les puces, ce qui augmente les coûts de service et la complexité logistique. De plus, une exposition prolongée au liquide de refroidissement, même diélectrique, peut induire des contraintes chimiques et mécaniques, nécessitant une qualification approfondie pour garantir une fiabilité de 5 à 10 ans. » Pour que la microfluidique s’impose, cette approche exige une gestion rigoureuse des risques liés à la fabrication, à la fiabilité et à la maintenance. Elle doit également devenir une pratique standard dans l’ensemble de l’écosystème.
