欢迎访问江苏欧贝新能源发展有限公司!

欧贝资讯 - 了解行业资讯 掌握实时动态

品牌故事、品牌案例、公司文化等

首页 > 新闻资讯
服务器数据中心液冷解决方案
发布时间:2025-05-26   浏览:85次

  一、液冷技术分类与原理

 

  1.冷板式液冷(间接接触型)

 

  a、原理:通过金属冷板与服务器发热部件(如CPUGPU)接触,冷却液在冷板内部流动带走热量,热量经二次循环系统(如冷却塔)排出。

 

  b、特点:对服务器改动小,兼容现有风冷架构,适合改造场景;可解决80%的散热问题,剩余部件仍需风冷辅助。

 

  c、应用案例:浪潮信息冷板式液冷服务器、科华数据解耦型液冷方案。


2

 

  2.浸没式液冷(直接接触型)

 

  a、单相浸没:服务器完全浸入不导电冷却液(如矿物油),液体循环散热,无相变过程。

 

  b、相变浸没:冷却液受热汽化,经冷凝器液化循环,传热效率更高,但需密封防泄漏设计。

 

  c、优势:PUE可低至1.04,散热效率是风冷的3000倍,适用于超算中心和高密度场景。

 

  3.其他类型

 

  a、喷淋式液冷:液体直接喷洒至发热部件,散热效率高但维护复杂。

 

  b、内存/硬盘液冷:如浪潮“枕木架构”方案,通过解耦设计解决高密度内存散热难题。

 

  二、液冷技术的核心优势

 

  1.节能高效

 

  a、液冷数据中心PUE普遍低于1.2,较风冷(平均PUE 1.3-1.8)节能30%-40%,如阿里云浸没式液冷PUE1.09

 

  b、液体导热系数是空气的25-3000倍,冷却效率显著提升,支持CPU超频和更高算力密度。

 

  2.设备保护与稳定性

 

  a、减少灰尘、震动对硬件的损害,延长设备寿命;无风扇设计降低故障率。

 

  b、相变浸没液冷可避免局部热点,确保服务器满负荷运行。

 

  3.空间与成本优化

 

  a、单机柜功率密度可达100kW,空间利用率提升5-10倍,减少机房占地面积。

 

  b、初期投资较高(比风冷高10%-40%),但通过节能可在2.5-4年收回成本。


2_2

 

  三、典型应用场景

 

  1.高密度算力中心

 

  AI训练、超算(HPC)等场景,如曙光“硅立方”液冷计算机,单机柜算力提升20倍。

 

  2.老旧数据中心改造

 

  浪潮信息提供风液混合改造方案,复用原有基础设施,小化系统改动。

 

  3.绿色数据中心建设

 

  科华数据冷板式方案结合自然冷源,PUE1.2,余热可用于供暖或工业用途。

 

  四、挑战与未来趋势

 

  1.技术挑战

 

  a、标准化不足:液冷接口、冷却液规格缺乏统一标准,厂商方案互不兼容。

 

  b、维护复杂性:需防泄漏监测、冷却液污染控制,浸没式维护需专用设备。

 

  2.未来发展方向

 

  a、成本降低:规模化生产与国产化推动,如曙光数创通过材料优化降低成本。

 

  b、智能化与解耦设计:如科华数据支持服务器与液冷系统,独立升级,提升灵活性。

 

  c、余热利用:液冷系统余热回收用于建筑供暖或工业流程,提升能源综合利用率。


3

 

  五、行业实践与厂商布局

 

  ·国内企业:中科曙光、浪潮、阿里云、华为等已实现规模化应用,如曙光部署数万台液冷服务器。

 

  ·国际对标:国内在商业化案例数量上较多,但技术标准仍需完善。

 

  ·政策推动:工信部要求2025年新建大型数据中心PUE1.3,加速液冷技术渗透(预计2025年渗透率超20%)。


1_1_1

 

  立即咨询,获取专属方案!