给数据中心“退烧”,浪潮引领液冷服务器生态变革

2021-05-08 08:50 水冷网编辑 未知
ROCCAT 捷致

  再大的风也吹不冷滚烫的“芯”

  云计算、大数据、人工智能等技术的普及促使高密度计算兴起,服务器性能的持续提升,带来了能耗的大幅增长。传统的风冷已经无法满足高密度计算的发展需求,在这一背景下,液冷技术开始受到业界的青睐。和传统的风冷技术相比,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近3000倍。其次,同等散热水平时,液冷噪音水平比风冷噪音降低20-35分贝。另外在耗电量方面,液冷系统约比风冷系统节省电量30%-50%,这使得数据中心有望摆脱地理位置等环境限制,顺应物联网等应用所需要的边缘数据中心小型、分散和靠近用户的需求。

  给数据中心“退烧”,浪潮引领液冷服务器生态变革

  有一种惊艳叫“冷板式液冷”

  目前,国内传统的风冷数据中心普遍面临两大困境。一是能耗问题,能源消耗巨大,其中空调能耗占比较大,导致数据中心PUE居高不下,能源利用效率低下。二是高密度支持问题,传统风冷机房允许的单机柜功率密度较低,一般在3~5kW/柜,而高性能、AI等场景要求20kW/柜及更高的功率密度。

  针对节能冷却和高密度支持的双重需求。浪潮冷板式液冷数据中心通过冷板直接接触服务器的发热元件、节省了空气换热环节,提高末端供水温度,进而将制冷系统的能耗大户压缩机省去,可实现降低制冷系统PUE的目的。其中冷板式液冷服务器采用冷板对发热量较大的元件(如CPU/GPU/DIMM)等进行冷却,从而实现服务器的高密度布置。

  冷板式液冷如何为数据中心“退烧”

  浪潮冷板式液冷数据中心产品线涵盖了液冷机柜、紧凑型微模块液冷数据中心、单排微模块液冷数据中心、双排微模块液冷数据中心等一系列不同规模的液冷数据中心产品。

  以双排微模块液冷数据中心为例,兼容风冷服务器,允许冷板液冷服务器和风冷服务器的混合搭配;通过冷通道封闭,提高风冷效率;CDU、空调、配电均为冗余设计,提高可靠性;机柜可增可减,配置方式灵活。通过这一系列方式,双排微模块液冷数据中心PUE低至1.2,与同等IT功耗的普通风冷数据中心(PUE2.0)相比,每年可节约电费高达200万元;同时,冷板式液冷服务器正常运行时CPU温度更低,从而可以获得更长的使用寿命;液冷的助力也降低了服务器风扇的转速,从而大大降低了数据中心内的噪音。

  给数据中心“退烧”,浪潮引领液冷服务器生态变革

  双排微模块液冷数据中心示意图

  浪潮引领液冷生态变革

  从风冷到液冷,改变的不仅仅是制冷方式,而是整个数据中心的生态。一旦数据中心的制冷方式从风冷转为液冷,那么随之发生改变的还有服务器的设计,以及整个数据中心的设计。在这方面浪潮已提前布局,浪潮新一代板上液冷的2U4节点高密度服务器i24M5-LC,可支持构建PUE<1.2的大规模水冷服务器数据中心。同时浪潮推出可移动的机架式CDU,可与i24M5-LC快装对接,快速组建完整的液冷服务器系统,为客户提供了高效便捷的移动式液冷集群方案。从某种意义上可以说,这套快装式可移动液冷集群系统从根本上解决了传统液冷系统难于部署的问题,为客户提供了经济高效的液冷集群方案。随着液冷技术进一步完善,生态系统进一步成熟,还将引发一连串的“液冷变革”,浪潮显然已做好了引领变革的准备。

  数据显示,到2023年,全球液冷数据中心市场规模将达到45.5亿美元,年复合增长率将达27.7%,液冷的春天已悄然来临。浪潮是全球领先的AI和HPC计算力厂商,拥有灵活多样的计算平台、功能强大的软件工具和框架、对多行业应用的洞察与优化能力,通过创新设计为世界范围的客户提供领先的计算设备,已成为众多科研机构与商业公司优选的合作伙伴。在业界对能耗和绿色计算日益重视的环境下,浪潮将持续深耕液冷数据中心,携手行业用户,共同引领未来的“液冷时代”。

水冷网www.shuileng.net报道再大的风也吹不冷滚烫的“芯” 云计算、大数据、人工智能等技术的普及促使高密度计算兴起,服务器性能的持续提升,带来了能耗的大幅增长。传统的风冷已经无法满足高密度计算的发展需求,在这一背景下,液冷技术开始...

Thermaltake 曜越
如果本文侵犯了您的权利, 请联系 goofy543%163.com(请将%换为@) ,本网立即做出处理,谢谢。

延伸 · 阅读

评论 · 交流

说点什么吧,也许可以帮到大家!
  • 全部评论(0
    还没有评论,快来抢沙发吧!