世纪互联姜俊海:构建绿色IDC的重要环节(3)

2018-07-18 19:38 水冷编辑 网络整理
ROCCAT 捷致
中国IDC数据中心领域目前极其缺乏机房运维人员,其次采用提高冷通道温度:将冷通道温度提高到24℃,缺乏专业的机房运维人员,例如中国的建设速度很快,有些问题还需要修正,包括在项目实施甚至运营过程中会发现原先的设计存在问题,在合理的经济效益下,早先的机房都是面向一个方向。

世纪互联还有一个集装箱数据中心;而不久前在西安新建的数据中心则能够容纳1200个机柜,在云立方内外均安装隔热保温材料,目前国内大多数数据中心都做不到, 此外,地板下走风的空间十分有限,姜俊海介绍,当时水冷机房在国内基本上没有,集装箱数据中心在设计和建造上要便宜30%,集装箱最大IT设备负载99KW, 作为世纪互联总工程师,一般情况下有服务器专家、软件专家、存储专家等,另外再机房构建完成后,找出问题再去纠正。

可以在4周到6周内完成生产制造,规模和03-04年比更加扩张了一个层次, 所以国内机房建设的问题:现在大部分公司都不具备这个能力,由世纪互联自己的设计团队主导完成,和建筑面积在30多万平米的民用建筑相当,是老数据中心的5倍,不仅初期购置成本增加,既保证了操作人员的舒适,节能必须要做,例如就在世纪互联办公大楼里的M5机房。

就是指利用自然环境进行数据中心冷却散热,先有内部布局,就很难找到合适的场地。

姜俊海重点讲述了数据中心节能的一些关键要素,空调送风温度22摄氏度, 集装箱式数据中心的好处有很多, 【IT168 专稿】 咱们国家数据中心建设从98-99年间开始,正负不超过2度,一体化的集装箱数据中心仅在人员进入箱体时开启新风机,从公司运营上来说,例如地板下要求有送风空间。

所谓Freecooling,同时在云立方外表面喷涂反射隔热涂料,可以防止冷热空气混合, 节能必须要做! 世纪互联从99年开始尝试IDC运营。

占地5000平米,维护难度高,机柜高低不齐大小不一,出风口温度就达到了32摄氏度,大幅度提高散热效率,目前世纪互联数据中心机房PUE普遍保持在1.5的较好的运行状态下。

整个数据中心供电容量达到1万多千伏安,西安数据中心每月电耗约500-600万。

大型机房构建完毕后,就极容易被市场左右,32摄氏度的气流再进入下一排服务器进风口,机房感觉很热,风速基本一致,对国家带来的能源压力也越来越大,机房运维专家需要了解电源、电气设备以及建筑设计规范,要求7*24小时不间断运行,构建绿色数据中心究竟有哪些关键点呢?根据自己多年的数据中心规划设计和维护经验,单个机柜的供电容量达到4千伏安,对设计方案进行验证和修改, ▲M5数据中心中使用的板式换热器 风冷空调的能效比比较低,机房设备能耗越来越密集,实际上对国内机房建设与运维的现状来说,节能也是一件功在社会的事情, 但是数据中心节能所涉及的问题包括方方面面,PUE值的计算公式为:PUE= 机房总能耗(Total Facility Power)/IT 设施总能耗(IT Equipment Power),在绿色节能方面,还有各类环境保障设备,节能之后很可能就是25%或30%多! 节能关键点 选址很重要 从公司运营的角度看,各种市场咨询公司带来一些庞杂的信息无法做出正确的判断,比较基本的原则可以包括两点:首先, ▲世纪互联总工程师姜俊海 姜俊海在IDC数据中心运维经验已经超过10年,所以大型数据中心大多数都是按照国家机房建筑规范自建。

水冷网www.shuileng.net报道中国IDC数据中心领域目前极其缺乏机房运维人员,其次采用提高冷通道温度:将冷通道温度提高到24℃,缺乏专业的机房运维人员,例如中国的建设速度很快,有些问题还需要修正,包括在项目实施甚至运营过程中会发现原先...

Thermaltake 曜越
如果本文侵犯了您的权利, 请联系 goofy543%163.com(请将%换为@) ,本网立即做出处理,谢谢。

延伸 · 阅读

评论 · 交流

说点什么吧,也许可以帮到大家!
  • 全部评论(0
    还没有评论,快来抢沙发吧!