解决之道:数据中心部署技术(3)

2018-07-20 04:30 水冷编辑 网络整理
ROCCAT 捷致

我们的防火系统是FM200灭火系统,烟感传感器在天花板内和活动地板内,如果活动地板超过50厘米的话,地板下必须要放置灭火气体,这个方面的要求也是非常高的。如果我们要达到7.5千瓦的机柜制冷能力,地板下面一定要高于50公分。

我们也要有24X7X360的CCTV监控和数据中心管理,这些我就不再详细的说了。

我们在整个网络连接方面,我们是双电路的管道进入数据中心,中国移动的T3+标准IDC里边,我们要求至少有3路电信线路能够去入到楼里,万一我们自己的网络发生问题,还有其他运营商的电路来保证我们网络连接的可靠性。

在绿色IT方面的应用,我刚才听到许先生讲到很多的密封性的空调制冷。中国移动北方基地在密封机柜制冷方面有实践,而且机柜内空调制冷在绿色IT方面,我们主要有四方面跟大家经验分享:

冷却机组使用环境的冷酶,我们会有措施去使用这个风,冬天的时候会使用外界自然的冷风,我们也会有一些冷却水,我们一些T3+高密度的机房实现风能和自然水冷的双结合,我们就是有双冷的冷源制冷,不存在破坏臭氧的威胁。最高的效率工作,比如刚才讲到的冷区的整个密闭空间,我们也有相应的实验数据,在密闭的冷空道,至少制冷效率可以提高10%左右。

我们还有UPS,符合航空运输的标准,发电机我们也有低气体的排放,低烟雾的排放,低噪音的污染,所有设备都采用节能环保技术,使我们这个数据中心的能耗达到一个新的PDU。

冷热通道,刚才也讲了,我们从2003年开始,所有数据中心的机房就已经是冷热通道分区,2006年的时候全部机房建设在实施冷通道的密封技术。

在这些基础设施建好以后,更重要的是有专业的管理,确保数据中心的高可靠性的运营。我们现在有包括建筑机电和电信项目的管理专家,有安全和设施的管理专家,有数据中心运维管理专家,我们会进行测试,为整个数据中心提供综合的全面的测试。

中间这张图,就是我们大白楼完成完成之后,我们会做热分布测试能力,看看哪些地方的热分布还不够合理,尤其是对10千瓦、7.5千瓦,一定要做热能的分布测试。

PUE,我们现在IDC所有的运营,在座的各位都很清楚这样一个能耗衡量指标。我们认为PUE小于2的时候,数据中心的能耗是比较理想的。北京中国移动大白楼的PUE可以达到小于2这样的一个水准。

我们在空调制冷方面,一般的室外机,北京来看用室外分冷制冷的,现在已经开始用冷却水去制冷。如果用冷冻水的话,经过测试以后的节能效果可以从25%提高到40%的水平。

在照明这边,我们北京还有很多数据中心没有实施这个T5的灯管,所有的照明设施,现在以200平米的数据中心,如果用T5的灯管,整个一年的用电量节约的电量可以达到1万千瓦,所以说照明也是一个非常重要的节能方面。

水冷网www.shuileng.net报道我们的防火系统是FM200灭火系统,烟感传感器在天花板内和活动地板内,如果活动地板超过50厘米的话,地板下必须要放置灭火气体,这个方面的要求也是非常高的。如果我们要达到7.5千瓦的机柜制冷能力,地板下面一定要...

Thermaltake 曜越
如果本文侵犯了您的权利, 请联系 goofy543%163.com(请将%换为@) ,本网立即做出处理,谢谢。

延伸 · 阅读

评论 · 交流

说点什么吧,也许可以帮到大家!
  • 全部评论(0
    还没有评论,快来抢沙发吧!