电费竟然占了数据中心运维总成本的7成?

2021-01-07 09:05 水冷网编辑 未知
ROCCAT 捷致

  据相关单位统计,中国数据中心的电费竟然占了数据中心运维总成本的60%-70%,而空调所用的电费占其中的40%。

  绿色IT不能只是说说,数据中心节能要从多个方面下手:选址与建筑,气流组织与空调系统,绿色能源与供配电系统,IT、照明及清洁。

  DevOps三十六计由高效运维社区与DevOps时代社区联合业界专家共同攥写,全书分为精益敏捷篇、持续交付篇、安全篇、性能优化篇、开发架构篇、测试技术篇、技术运营篇等,涵盖DevOps领域方方面面。

  今天的内容是技术运营篇里的数据中心节能运维三十六计

  DevOps 三十六计之

  数据中心节能运维

  电费竟然占了数据中心运维总成本的7成?电费竟然占了数据中心运维总成本的7成?电费竟然占了数据中心运维总成本的7成?电费竟然占了数据中心运维总成本的7成?电费竟然占了数据中心运维总成本的7成?

  结合《DevOps 三十六计》看案例:

  案例一某IT企业大型数据中心高能耗案例

  本案例适用于:

  第2计:设计全封闭型的数据中心,提高机房密闭性能:取消外窗;门窗要做好密闭处理;尽量减少人员出入机房。防止外部热空气进入机房,机房冷空气偷漏跑冒至室外。

  第3计:数据中心外墙为浅色调;在机房制冷控制区域对维护结构进行保温处理,防止机房相邻区域因温度、湿度差异较大而产生冷凝水,同时降低制冷的负荷。机房内,尽量不用玻璃墙。满足LEED要求的绿色节能建筑要求。

  第8计:在数据中心的气流组织中设计冷热通道分离,或冷热通道封闭。防止冷热气流短路。

  第34计:选择节能灯具,并引入智能照明系统,提高自动化程度,减少不必要的光照强度。

  案例背景:

  我参加建设的第一个数据中心是2002年某个大型IT企业北京数据中心的建设。当时数据中心内都是玻璃墙;机房内的IT设备都是按业务应用分组摆放,且是头对尾整齐的摆放。导致数据中心能耗高昂,PUE超过2.9。

  案例分析:

  1.机房都是玻璃墙,当时考虑的是美观。因为经常有外单位参观数据中心。机房设计成为玻璃外墙,可以方便接待来宾参观。殊不知玻璃是一个非常好的热导体,导致能耗很高。

  2.机房内IT设备按业务应用分组摆放。比如与ERP应用相关的各种设备集中摆放在一起。这组ERP机柜最前面是ERP小型机,后面是ERP存储,存储后面是ERP的PC服务器。最高档的机器放置在最前面。当时按应用集中摆放,也有对外展示的考虑。不同类型的设备集中摆放在一起,则各机柜参差不齐,大小不一,能耗不同,不仅布线复杂,而且对空调制冷带来很大不便:按能耗大的设备来制冷,则对能耗低的设备有些浪费。按能耗低的设备来制冷,则高能耗设备过热。

  3.各机柜设备头尾相对,导致前机柜的热风直接传导到后机柜的进风口,冷热气流紊乱,导致高能耗。

  4.外部来宾进入机房参观,导致凉气泄露,灰尘进入,增加了能耗,增加了安全风险。

  反思:

  根因分析:当时我们没有数据中心气流组织、节能规划的概念。“保安全,求美观”是当时主要的诉求。

  解决方案:

  后来随着知识、见识的增长,我们逐渐有了绿色环保的思想,数据中心开始采用节能的技术。比如:

  数据中心基本没有窗子,且为隔热实体墙。

  来宾参观,直接到总控中心去,不到机房去参观。

  我们按模块化数据中心进行建设。存储区、PC区、小机区等,分区建设。针对不同的区域,采用不同的强弱电部署方式和制冷方式,减少单机房布线和制冷的复杂度。

  机柜摆放为头对头,尾对尾,建立冷热通道,防止气流短路。

  大型数据中心采用风冷和水冷相结合的制冷措施。

  案例二某石化企业大型数据中心高能耗案例

水冷网www.shuileng.net报道据相关单位统计,中国数据中心的电费竟然占了数据中心运维总成本的60%-70%,而空调所用的电费占其中的40%。 绿色IT不能只是说说,数据中心节能要从多个方面下手:选址与建筑,气流组织与空调系统,绿色能源与供配电...

Thermaltake 曜越
如果本文侵犯了您的权利, 请联系 goofy543%163.com(请将%换为@) ,本网立即做出处理,谢谢。

延伸 · 阅读

评论 · 交流

说点什么吧,也许可以帮到大家!
  • 全部评论(0
    还没有评论,快来抢沙发吧!