IBM袁东坡谈绿色数据中心(3)

2018-07-25 05:36 水冷编辑 网络整理
ROCCAT 捷致

  我们直接来看几个简单的例子,这是IBM在美国柯罗拉多州,建立一个数据中心,给自己的内部员工用的,目前的规模是3万平米,我们绿色工程计划里面,我们另外新增加了7千平米的一个新的数据中心,一个新的机房,这个新的数据中心,是做一个绿色数据中心,我们计划打造的。本身利用了风力发电,本身利用了免费智能的技术,因为柯罗拉多州风很大,冬天非常冷,在高山上。可以利用免费的制冷,可以达到节能。本身是一个高密度电脑的设计,有很多相关的技术,都运用在这里。

  这是我们为一个客户,在欧洲新建的领先的超级计算机中心,本身客户的要求是说它只有160平米的空间,要容纳大量的计算机能力。第二因为那边的地皮贵,所以他们选择了18世纪的教堂里面,要求我们不能破坏环境,同时要求可以做到一个视觉效果很好的一个计算机中心。所以兼顾到一些节能的能力。以及未来可以看到目前的计算机中心一般使用的机柜的话,散热能力大约是3-6个千瓦,那么这个计算机中心的话,他们来看未来的需求,应该能够到20千瓦上,那么IBM的本身的话,看到的趋势是说目前走到6-10千瓦的机柜。我们这边为客户准备的是10、20、30三种规格的机柜,应付客户未来的扩容,以及将来的IT的需求,所以这是一个兼顾美观、实用、节能的机房。

  为了能够减少机房的面积,那么以及未来因为电费、因为限电,因为其他的要求,未来我们看到机房的搬迁,积极集中未来的成长,所以我们推动所有的模块化的数据中心,那么模块化数据中心的话,可以有效地减低,因为是做直接的冷却,所以有效地降低机房的使用面积,以及非常有效地节能。

  那么面积和节能大概在40个百分点左右,这是一个在美国的项目的参考。

  这是台湾的一个绿色机房的实例,在中央气象局,是一个高密度的电脑的环境,本身的话,我们透过几个相关的尖端的技术的话,解决了它散热的问题,那么台湾因为是一个小岛,所以一般的土地的面积有限,那么机房的面积很少,如何容纳这些高密度电脑解决它的散热需求,所以我们有很多的技术实施在这个项目上面。

  这个是在美国一个大学的我们的虚拟化这个部分。IBM自己本身的话,在美国我们把3900个服务器,集中在33台服务器上面,所谓的虚拟集中的技术,我们也用在客户上面。

  另外我们看到就是说在机房工程上面的话,跟整个建筑分不开的。我们谈绿色数据中心的话,其实使用某些节能产品的话,本身其实在绿色数据中心,所谓绿色里面比较底层的基础工程。

  那么从美国的对绿建筑的标准定义的话,在往上走到集成,或者可持续环境发展的话,这部分是真正企业需要考虑的。

水冷网www.shuileng.net报道我们直接来看几个简单的例子,这是IBM在美国柯罗拉多州,建立一个数据中心,给自己的内部员工用的,目前的规模是3万平米,我们绿色工程计划里面,我们另外新增加了7千平米的一个新的数据中心,一个新的机房,这个新...

Thermaltake 曜越
如果本文侵犯了您的权利, 请联系 goofy543%163.com(请将%换为@) ,本网立即做出处理,谢谢。

延伸 · 阅读

评论 · 交流

说点什么吧,也许可以帮到大家!
  • 全部评论(0
    还没有评论,快来抢沙发吧!