|
|
|
|
2025-01-18 第03版:新闻纵深
|
大 | |
中 | |
小 |
|
|
数据中心要避免对液冷技术的“误读” |
|
|
作者:
崔立勇 来源:中国经济导报 字数:1515 |
|
|
|
本报记者 | 崔立勇
据中国信息通信研究院测算,2023年全球算力规模为1397EFlops,中国占比达1/3。算力的增长离不开数据中心的支撑。在满足巨大算力需求的同时,数据中心的高效和稳定运行却面临散热和能耗的巨大挑战。 相关研究表明,当芯片TDP(Thermal Design Power,散热设计功耗)超过350W时,风冷逼近极限,液冷呼之欲出。液冷目前在我国的整体渗透率约为10%,业内认为,预计未来3~5年,液冷行业有望保持30%以上的年复合增长率。 曙光数创副总裁兼CTO张鹏日前在京接受记者采访时表示,液冷技术是大势所趋,未来大有可为,但从技术角度要避免“误读”。 “千万不要把液冷仅仅局限为绿色节能,这是一个特别大的误区。”张鹏强调,符合国家绿色低碳的发展战略,是液冷快速落地的重要原因,但是液冷爆发的根本原因还是传统的风冷技术手段无法解决服务器芯片的散热难题。 数据中心用电量目前占社会总发电量的2%~3%。预计到2025年,我国数据中心电力消耗将接近4000亿千瓦时,占全国总电力消耗的5%以上。在此背景下,采用更为节能的液冷技术成为必然。 要解决数据中心耗电问题,液冷技术是有效的手段之一,更加环保高效的算力基础设施服务将助力“双碳”目标的实现。 然而不能忽视,液冷也是被“逼出来”的。张鹏介绍,数据中心经历了数据处理中心(DC)、互联网数据中心(IDC)、智算中心(AIDC)等阶段。随着AI模型日益复杂,数据处理量爆炸式增长,AI正在驱动数据中心快速发展。 过去,服务器CPU功耗只有150瓦至200瓦,这种水平持续了近20年。从2020年开始,全球数据量呈指数级增长,尤其是随着AI大模型训练对算力需求的激增,GPU更是从A100的450瓦发展到H100的700瓦,B100甚至达到1200瓦,功率之大可谓“恐怖”。而且,芯片功率还有进一步提高的趋势,GPU开始普遍采取高密度部署的方式。 在此情况下,传统风冷技术不仅会影响芯片性能发挥,还可能导致服务器稳定性和可靠性下降。张鹏表示,当散热变成数据中心难以跨越的难题,那么液冷技术的应用就不是可选项,而是必选项。 液冷行业正在加速技术标准的建立。曙光数创在2023年度以61.3%的市场份额连续第三年稳居中国液冷行业首位,也参与了国标、行标、团标等30多项标准的制订。张鹏表示,液冷技术仍在发展迭代,能力和可靠性还将继续提升,但是从产业链角度观察,这并不代表液冷产业链尚未成熟。 张鹏分析,以冷板式液冷为例,技术成熟度较高,汽车发动机采用同样的技术原理,近年来在储能领域也得到广泛应用。在数据中心,用户对液冷的接受度不成问题。 与此同时,张鹏认为,标准化和模块化将推动行业的整体健康发展,降低整个行业的成本。他举了一个具体的例子——液冷设备缺乏统一的接头标准,每个品牌的接头都不一样。按照曙光数创的统计,接头成本占据了液冷系统1/4~1/3的成本。“系统中最贵的应该是管路、水泵、散热器等部件,接头成本不应该超过总成本的1/10。”他说,随着液冷规模的扩大,接头标准亟待建立。 需要解决的还有液冷的水质问题。冷板中的水温一般在40~50摄氏度,这个温度相对容易滋生细菌。为了应对这种问题,行业内采用了在水中添加乙二醇、丙二醇或者杀菌剂等办法。在张鹏看来,这些方法各有其优点和不足,总体来看还没有特别有效且经济的手段。 张鹏表示,液冷技术仍在不断进步,更细微更具体的问题将逐步得到破解。随着相关标准的逐步建立,液冷行业仍将持续快速发展。
|
|
|
|
|
|
|