资讯中心

AI算力爆发带来散热挑战,液冷将成智算中心标配

来源:TechWeb.com.cn
2024/1/17 9:05:00
22504
导读:智算中心必须导向液冷技术。液冷技术具有低能耗、高散热、节约空间、不受环境限制等特性,相较风冷系统PUE值在1.3-1.4左右,液冷系统可以降低PUE值到1.05-1.1,更能适配高密度、高算力的智算场景。
  步入2024年以来,从各品牌手机竞相接入大模型,到大众汽车全部车型搭载ChatGPT,再到京东工业上线采购大模型、万兴科技运用大模型创作短视频等,大模型正加速融入各个领域。
 
  大模型的广泛落地,在为企业数字化带来革新和颠覆的同时,也给算力行业带来难题。
 
  日前,在ABB电气创新周绿色数据中心论坛上,一众专家围绕“生成式AI为代表的算力需求带来的挑战和机遇”进行了深入探讨。
 
  会上,网宿科技子公司绿色云图运营总监徐明微表示,大模型的训练、推理、交互都需要海量AI算力的支撑。随着AI算力需求爆发,带来服务器功耗增长,行业必须要应用新的技术来高效带走热量,液冷技术将成为最佳解决办法。
 
  当前,AI算力已经成为我国算力发展的主要方向。IDC预测,到2026年中国智算规模将达到1271.4 EFLOPS,未来五年复合增长率达52.3%。与此同时,结合应用发展趋势,未来80%的场景都将基于人工智能,所占据的算力资源将主要由智算中心承载。
 
  徐明微指出,智算意味着更高密度的算力基础设施建设,单机柜功率密度在40kW以上。而传统数据中心单机柜密度通常在8-10kW,且机房宽度不超过15米,面对智算新趋势,传统机房不仅在空间布局上受到限制,在散热方面更面临严峻挑战。
 
  在能耗结构上,众所周知的是,IT和空调制冷设备是数据中心的主要能耗来源,两者占到数据中心总能耗的85%。传统的数据中心以风冷技术为主流散热方式,而由于空气换热系数低、散热能力不足且受环境影响,风冷散热已无法满足高密度数据中心的散热需求。
 
  对此,徐明微认为,智算中心必须导向液冷技术。液冷技术具有低能耗、高散热、节约空间、不受环境限制等特性,相较风冷系统PUE值在1.3-1.4左右,液冷系统可以降低PUE值到1.05-1.1,更能适配高密度、高算力的智算场景。
 
  据悉,网宿科技子公司绿色云图是国内液冷领域的先行者,自2015年起便已投入对液冷技术的研究,目前累计已取得发明专利超过百项,多款液冷产品入选工信部权威节能目录。在应用方面,依托丰富的商用经验和领先的技术能力,绿色云图在高算力场景率先取得规模应用,不断落地标杆案例,比如绿色云图为武汉大学打造了液冷超算边缘数据中心,有效支撑其大规模数据处理和高性能计算需求。
 
  “我们相信,随着未来高算力场景的不断涌现以及社会对节能要求越来越高,数据中心会更多地部署液冷技术。我们将持续深耕液冷,用更绿色的数据中心满足生成式AI为代表的算力需求。”徐明微表示。

热门评论

上一篇:100亿!又一储能电池项目封顶!

下一篇:电子行业5项行业标准和1项推荐性国家标准报批公示

相关新闻

<