【IT168 专稿】在数据中心机房里,机器密度和散热效率之间的矛盾正越来越突出。随着你在一个机柜里达到的计算能力越来越高,面临的散热挑战也越来越严峻。
“过去,我们认为每平方英尺50瓦就已经是很高的密度了;但现在,我们眼睛都不眨一下,就把它提高到了200-300瓦。而且还有人说这个密度还可以再高。”Vali Sorrell,美国纽约一家工程设计咨询公司Syska Hennessey 集团的高级工程师如是说。他也是数据中心散热方面的专家。“为了让散热水平也能跟上去,我们需要足够多的气流和风量,而这给数据中心的基础设施带来了越来越大的压力。”
然而,这种局部的热点(hot spot)还只是问题的一部分。关键是,如果不加控制,热量会限制数据中心未来的扩展。
CDW Berbee是美国一家在多个城市拥有企业级数据中心的托管服务商。该公司数据中心经理Wayne Rasmussen说,“5年前,我有一段时间总担心机房空间会限制我的业务和数据中心的发展。但随着服务器机箱尺寸的缩小,我现在顾虑的不再是空间限制问题,而是热量密度的问题。”
随着业界对提高机房散热效率的要求越来越迫切,液体制冷的方式重新进入了人们的视野。有了这种专门解决局部热点问题的紧凑型模块化散热系统,IT管理人员可以增加更多的计算能力,而不用担心产生过热现象。
数据中心的未来水世界
水冷或液冷有两大好处:一是它把冷却剂直接导向热源,而不是象风冷那样间接制冷;二是和风冷相比,每单位体积所传输的热量即散热效率高达3500倍。
Shen Milsom & Wilke是一家总部位于纽约的国际高科技咨询公司。其负责人Robert McFarlane说,“由于机房里产生的热量很大,我们必须高效地把热量散出去,这也意味着我要让散热模块尽可能地接近产生热量的地方。这就需要有一种东西到那里去把热量带走,可以是水,或者是某种制冷剂。”
回到今年4月份,IBM发布了其最新的System p5 575 ,就是直接通过安装在处理器上面的水冷铜板来把热量带走的。这让IBM可以把448颗处理器装入一个机柜中,使该系统性能达到了早期机型的5倍,同时把电耗减少了60%。
IBM公司还有另外两种水冷产品。针对大规模的数据中心,DCSCS(Data Center Stored Cooling Solution,数据中心贮备型散热方案)可以在温度和电费都较低的非高峰运行时期,把水冷却并贮备起来,然后在高峰时间用来冷却机房。针对机柜层面,Rear Door Heat eXchaner 是一种4英寸深的单元模块,可以安装在服务器机柜后边,它可以提供多达5万BTU(英国热量单位)的散热效率。
其他一些公司也采取了类似方式,把液冷模块集成到各自的产品中去。比如,Emerson Network Power的Liebert XD 系统使用一种液态制冷剂来为服务器机柜散热;Knurr AG的CoolTherm 把一种水冷热交换器安装在了机柜的底板上面;Egenera的 CoolFrame 技术则是把Liebert XD和 Egenera的BladeFrame EX 设计结合到了一起。具体到处理器的散热上,ISR的SprayCool M系列更酷,它在服务器内部安装一些模块,可以直接向CPU喷出一种冷却雾。最后,NEC和日立则提供了液冷的硬盘,可以让这些硬盘完全密封起来降低噪音。