友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com
AI算力竞赛加速散热技术变革,液冷方案获行业青睐
49
0
相关文章
近七日浏览最多
进入AIGC时代,智算中心规模日渐庞大,服务器能耗与日俱增。如何降低智算中心能耗已成为国家和地方政府关注的焦点。
工信部数据显示,2022年全国数据中心总耗电量约2700亿千瓦时。当前,大部分数据中心仍主要采用风冷散热技术,在单柜密度、PUE值方面已愈发难以满足行业发展及绿色节能方面的要求,而冷板式液冷方案则为现有数据中心节能改造提供了诸多便利。
近日,国产CPU领军企业飞腾信息技术有限公司正式发布飞腾腾云S5000C服务器液冷解决方案,并在第十二届中国电子信息博览会上荣获创新金奖。
液冷释放芯片极致性能
目前,常规风冷仅支持8-10kW的单柜密度,若继续采用风冷散热,将导致行间空调需求数量陡增,算力成本也将急剧增加,因此高密度散热场景下液冷方案成本和性能优势显著。本次飞腾联合同泰怡针对S5000C服务器液冷解决方案进行测试,结果表明基于本次液冷解决方案打造的下一代高性能液冷服务器,如果应用在30KW风液式CDU液冷机柜中,单机柜可配置25台1U双路液冷服务器,相对风冷机柜理论上可提升297.6%。
30KW 风液式液冷机柜
测试结果还表明, S5000C高主频芯片可以在液冷系统的加持下稳定可靠运行,主频相对标准版芯片提高20%。
液冷实现算力绿色节能
中国信息通信研究院测算,到2030年我国数据中心耗电量将达到5900亿千瓦时。工信部等部门在2021年12月提出加快绿色数据中心建设,到2025年全国新建大型、超大型数据中心电能利用效率(PUE)降到1.3以下。
相较于传统风冷,液冷方案采用液态介质作为热传递介质,热传导效率比空气大大提高,可以更有效地移除计算机组件中的热量,从而降低能耗。本次测试结果表明,液冷系统的整体能耗相较风冷可降低约10%左右,同时满足国家要求的PUE值,从而降低空调机房以及机柜的电力成本,具有较好的经济适用性。
飞腾腾云S5000C液冷机柜以及服务器结构图
此外,本次飞腾推出的液冷解决方案基于四台双路服务器进行系统功耗测试,进液温度在40℃以上, S5000C结温控制在65℃以内,CPU的结温温度波动在±1℃以内,使得服务器系统的核心部件在一个较低且稳定的温度下运行,大大提高了系统的可靠性以及核心部件的使用寿命。整个液冷系统热阻低,散热能力显著加强。
为了最大限度降低漏液带来的风险,本次飞腾液冷解决方案还采用了一套漏液感知与干预系统。通过漏液检测接口直接检测漏液,在第一时间通过BMC发送警报。在本次测试中,飞腾针对主板的LEAKAGE 4pin 漏液检测接口进行了测试,目前该接口已通过漏液检测设备识别检测与移除告警以及模拟漏液故障报警等测试。
随着AI技术的飞速发展,液冷技术特别是冷板式液冷正获得越来越多数据中心的青睐。由于冷板式液冷的硬盘、光模块等服务器部件以及运维模式和机房承重与传统风冷场景基本一致,因此不需要对现有风冷机房和机柜进行大规模改造,升级成本也相对较低。飞腾本次发布的飞腾腾云S5000C服务器液冷解决方案不仅能够显著提升数据中心的能效和散热性能,还能够降低噪音和运营成本,这对于追求高效率和可持续运营的数据中心来说至关重要。
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com