新闻中心

News Center

当前位置:新闻中心

数据中心液冷的痛点和挑战



https://mp.weixin.qq.com/s?__biz=MzkxMDIzMDMzNQ==&mid=2247484910&idx=1&sn=eae725ca59feca11dc1309218288d675&scene=21#wechat_redirect


640 (8).jpg








目录

1、液冷的强输入

2、液冷的标准化

3、IDC如何兼容风冷和液冷

4、可预见的未来设计

PART 01液冷的强输入


640 (9).jpg

(澄清常见误区)

  • 不是高功率,比如B卡也是风冷为主,单机柜少放几台也可风冷

  • 不是低PUE,风冷机房的PUE也可以做的很低,比如北方地区

  • - 也不是低TCO,截止目前液冷IDC和服务器的造价还是偏高的


数据中心液冷的强输入,摩尔定律在芯片、机柜、IDC层面的延伸

  • - 更高密度

  • - 更近距离:

  • - 更多超节点

  • - 更多IT产出:


640 (10).jpg


当前液冷规划的部分痛点

·风液需求不定,兼容成本很高:客户对采用风冷还是液冷的需求不明确,导致基础设施需同时兼容两种方案,造价高昂。

·功率密度持续攀升,难以提前规划:芯片功耗增长过快,导致机房功率密度规划难以跟上技术迭代速度,基础设施面临刚建成就可能落后的风险。

·异构芯片差异太大,接口标准化很差:不同厂商(如CPUGPUAI加速卡)的液冷接口设计不一,缺乏统一标准,增加冷板设计和机房部署的复杂性。

·液冷冗余可靠性问题,泄漏带来的损坏:担心冷板、快速接头等部件泄漏冷却液,导致服务器硬件损坏和业务中断,对冗余设计和可靠性要求极高。

当前液冷运营的部分痛点

·水质问题带来的堵塞腐蚀:冷却液水质管理不当会导致微生物滋生、结垢或腐蚀,堵塞精密冷板流道,影响散热效率甚至损坏设备。

·互插混插的兼容性和责任问题:不同品牌、型号的服务器液冷接口可能存在细微差异,混插部署时容易发生泄漏,出现故障后责任难以界定。

·不同服务器使用不同溶液甚至专用:各服务器厂商可能推荐或要求使用特定品牌、配方的冷却液,给数据中心统一采购、管理和维护带来巨大挑战。

·配套应急小车等抢修工具缺失:行业缺乏标准化的应急处理设备(如泄漏收集、快速抢修工具),一旦发生故障,恢复流程复杂、效率低下。

PART 02 液冷的标准化

640 (11).jpg


液冷风液比(不同服务器的液冷占比)

  • - 9XXC70% : 30%

  • - GX20085% : 15%

  • - 覆盖其他:90% : 50%


液冷冷媒(冷却液类型)

  • - 去离子水

  • - EG25

  • - PG25


液冷水温

  • - 当前:高水温,单相

  • - 未来:低水温,相变甚至浸没等


使用时间

  • - 服务器寿命:3~5

  • - IDC(数据中心)寿命:10~15


标准各异:急需收敛(部分)

项目

GPU快速接头

CPU快速接头

浪潮   (Inspur)

DAG09

DAG03

宁畅   (Nettrix)

UQD06

UQD02

新华三 (H3C)

UQD04

UQD04

超聚变   (FusionServer)

UQD08

/

接口形态和串并连接方式形态各异


640 (12).jpg

比较液冷下走管、上走管和侧走管 三种布局。

PART 03 如何兼容风冷和液冷

640 (13).jpg




风冷还是液冷?

·历史是轮回的,风水轮流转,从水冷到风冷再回到水冷是螺旋式上升。

·风冷和液冷将会长期共存(例如:老旧设备搬迁需求、冷存储等场景)。

·冷板液冷是当前的务实选择

               - 大规模存量IDC和液冷服务器需做好协同

               - 很难搞定所有厂家和所有型号的IT设备改造

               - 数据中心的建设和运维很难做革命性的大变革

·单相还是相变,高温还是低温

- 单相还有很多潜力可挖,相变冷板可能是未来方向。

- 100%冷板液冷也会带来不少挑战,不排除混合液冷。

- 当前高温,随着未来芯片功率不断提升,低温液冷是趋势。


640 (14).jpg



兼容性设计:业务需求的不确定性

·老旧服务器搬迁:低密度,功率范围6-10KW

·普通计算型业务:功率范围10-20KW

·高密度AI风冷:功率范围20-40KW+

·液冷机柜:功率范围40-200KW+

如何兼容

·当前过渡阶段风液CDU的机会

·白地板空间的弹性、兼容性设计

·标准化模块化灵活配置不同风液比

·甚至预留液冷补冷能力,支持未来低水温


640 (15).jpg




风液需求不定:
 IDC 需要前置,等需求明确后再建设来不及
挑战:做风液兼容和异构芯片兼容需要增加成本、付出代价

南北方差异较大:
多层建筑和大平层
有水地区无水地区
不同气候温度环境

风液同源:
屋顶外机冷源
 CDU + 双源空调末端
未来风液融合型精密空调或双水温冷机

PART 04 可预见的未来设计


640 (16).jpg




从风冷到液冷,从单相到相变;

做好弹性和兼容性,可支持更高功率


640 (17).jpg




液冷接口标准化

探索 UQD 或者 NVQD 接口的统一,以及盲插,互插、混插的统一

机柜级别类 FD83  1 寸或者 2 寸等接口的标准化,适配整机柜交付

不同芯片平台的液冷适配统一

芯片的异构和国内外标准和不同阶段的差异,带来 IDC 难标准化

不同家芯片和服务器差异太大,标准化设计和兼容性规划

不同代芯片和服务器迭代很快,更大弹性,并预留升级机会

风液需求不定,高低水温也不定

优先考虑风液兼容性方案,也可预留未来低温液冷接口

加快 100% 液冷产业生态的打造,实现 IDC 架构的简单化


640 (18).jpg



超高密度机柜:

更高的流量、更高的压力、以及更低的液冷温度

未来从单相冷板转向相变冷板,甚至浸没式液冷

AI 负荷跳变需提高液冷响应速度

通过蓄冷等方式快速满足负荷跳变需求

通过控制水泵流量和用电功率等做好实时联动


6.jpg


回归资源、成本、稳定性的最底层逻辑,匹配政策要求

满足业务发展的需求,做好风液兼容性架构应对变化

需要推动行业的标准化和产业生态培育

接口标准化以及兼容性设计

加快更高密度散热能力技术储备

推动创新产品和产业生态的升级

数据中心是影响十年以上的投资

架构设计是骨架

精细化运营是灵魂

仅为一家之言,没有完美架构和技术,适合自己的才是最好的

本文仅作分享,不代表本人立场。如您认为平台推送文章侵犯了您的知识产权,请及时联系(411792714@qq.com),我们将第一时间删除。

液冷全产业链交流群 扫描加入
只针对数据中心/服务器/芯片液冷行业研发技术人员(投资,股票,贸易商禁止入群),请加最下面群管理员微信。
1.《数据中心液冷技术群》
针对数据中心服务商,数据中心运维企业,液冷系统供应商、相关零部件企业技术人员,加群关键字“数据中心”
2.《服务器液冷技术交流群》
针对数据中心企业,服务器企业、液冷系统供应商、相关零部件企业技术人员,加群关键字“服务器”
3.《芯片散热技术交流群》
针对数据中心企业,服务器企业、芯片企业、液冷系统供应商、相关零部件企业技术人员,加群关键字“芯片”

加下面工作人员为好友时按照下面蓝字模式发送验证申请

公司名称+姓名+数据中心。例如 华为  钱三强  数据中心 这样便于我们把您拉入到各个专业群。每周六统一入群

加下面工作人员为好友时按照上面蓝字模式发送验证申请

640 (19).jpg