解决之道:数据中心部署技术(3)
我们的防火系统是FM200灭火系统,烟感传感器在天花板内和活动地板内,如果活动地板超过50厘米的话,地板下必须要放置灭火气体,这个方面的要求也是非常高的。如果我们要达到7.5千瓦的机柜制冷能力,地板下面一定要高于50公分。
我们也要有24X7X360的CCTV监控和数据中心管理,这些我就不再详细的说了。
我们在整个网络连接方面,我们是双电路的管道进入数据中心,中国移动的T3+标准IDC里边,我们要求至少有3路电信线路能够去入到楼里,万一我们自己的网络发生问题,还有其他运营商的电路来保证我们网络连接的可靠性。
在绿色IT方面的应用,我刚才听到许先生讲到很多的密封性的空调制冷。中国移动北方基地在密封机柜制冷方面有实践,而且机柜内空调制冷在绿色IT方面,我们主要有四方面跟大家经验分享:
冷却机组使用环境的冷酶,我们会有措施去使用这个风,冬天的时候会使用外界自然的冷风,我们也会有一些冷却水,我们一些T3+高密度的机房实现风能和自然水冷的双结合,我们就是有双冷的冷源制冷,不存在破坏臭氧的威胁。最高的效率工作,比如刚才讲到的冷区的整个密闭空间,我们也有相应的实验数据,在密闭的冷空道,至少制冷效率可以提高10%左右。
我们还有UPS,符合航空运输的标准,发电机我们也有低气体的排放,低烟雾的排放,低噪音的污染,所有设备都采用节能环保技术,使我们这个数据中心的能耗达到一个新的PDU。
冷热通道,刚才也讲了,我们从2003年开始,所有数据中心的机房就已经是冷热通道分区,2006年的时候全部机房建设在实施冷通道的密封技术。
在这些基础设施建好以后,更重要的是有专业的管理,确保数据中心的高可靠性的运营。我们现在有包括建筑机电和电信项目的管理专家,有安全和设施的管理专家,有数据中心运维管理专家,我们会进行测试,为整个数据中心提供综合的全面的测试。
中间这张图,就是我们大白楼完成完成之后,我们会做热分布测试能力,看看哪些地方的热分布还不够合理,尤其是对10千瓦、7.5千瓦,一定要做热能的分布测试。
PUE,我们现在IDC所有的运营,在座的各位都很清楚这样一个能耗衡量指标。我们认为PUE小于2的时候,数据中心的能耗是比较理想的。北京中国移动大白楼的PUE可以达到小于2这样的一个水准。
我们在空调制冷方面,一般的室外机,北京来看用室外分冷制冷的,现在已经开始用冷却水去制冷。如果用冷冻水的话,经过测试以后的节能效果可以从25%提高到40%的水平。
在照明这边,我们北京还有很多数据中心没有实施这个T5的灯管,所有的照明设施,现在以200平米的数据中心,如果用T5的灯管,整个一年的用电量节约的电量可以达到1万千瓦,所以说照明也是一个非常重要的节能方面。
水冷网www.shuileng.net报道我们的防火系统是FM200灭火系统,烟感传感器在天花板内和活动地板内,如果活动地板超过50厘米的话,地板下必须要放置灭火气体,这个方面的要求也是非常高的。如果我们要达到7.5千瓦的机柜制冷能力,地板下面一定要...
延伸 · 阅读
- 2018-10-232018开放数据中心峰会开幕 技
- 2018-10-23CDCE2018国际数据中心及云计算
- 2018-10-18数据中心冷战:风冷未央 液冷
- 2018-10-13华为助力客户迈向智能云数据中
- 2018-10-11美利云与上海电力牵手 建设大
- 2018-10-02为数据中心加速 英特尔扩充FPG
评论 · 交流
- 全部评论(0)