数据中心 频道

分析:数据中心如何应对功耗挑战(下)

    值得指出的是,HP对于直接芯片冷却技术的研究已经有很多年了,它将会使用其打印机部门的喷墨喷头来向微处理器喷洒冷却液。HP公司的院士—Chandrakant Patel期望在未来的日子中,新旧冷却技术能够结合使用,包括传统的空气流、直接连接、芯片级冷却等。

    尽管数据中心的热量问题已经迫在眉睫,但数据中心管理者们采取的应对措施却并不乐观。根据Uptime Institute针对19个面积在20万平方英尺以上的计算机机房的调查,发现他们的平均冷却容量是实际需求的2.6倍,但有60%以上的容量却由于设计分布以及空气流等不足原因白白浪费掉了,结果10%以上的服务器机柜都运行在过热状态。

    得出了这样的结论:那些数据中心的平均电源功率消耗为每个机柜2.1千瓦;高密度的服务器机柜可以消耗掉20~40千瓦的电源功率,产生的热量更是达到了几倍。

    美国乔治亚科技学院就通过使用新技术将冷却系统移近热源,结果每年的使用成本方面带来了大约16万美元的节省。该大学的生物研究中心安装了850万美元的超级计算机,这对于空间和电源消耗来说都是非常大的挑战。包括了一台1000节点、12个机柜的服务器机群,使用的是IBM BladeCenter系统;IBM的Rear-Door Heat eXchanger,该技术直接将冰冷的水置于服务器后端,来实现冷却。eXchanger是IBM在去年推出的,它为这个1300平方英尺的数据中心解决了不少问题。它使得实际空调系统需求仅仅为原来预期的一半(预期为160吨,实际只用了80吨),这样减少了空气流,降低了噪音。

    在未来几个月中,该数据中心还将准备再装配四个机柜,所以他们也正在寻求芯片级的冷却新技术,以便进一步削减电源功率成本。毕竟每一次升级都意味着原有规则的改变,所以也需要寻求更有效的方法来保证效率和成本的平衡。

    往数据中心引入水或其他液体这样的想法,让很多IT管理人员都感觉恐慌,因为水可能会毁坏计算机元部件、导致短路等。想象一下,如果数据中心传输水的管道破裂,或者某一个液体喷雾器发生故障,那将会导致什么样可怕的场面!

    但是,到目前为止,并没有其他更好的方法可以代替水而使火热的数据中心得以有效冷却。专业的数据中心设计公司Callison已经对SprayCool M-Series进行了深入测试,他们认为直接芯片冷却的方法还是非常有效的,通过使用该方法,数据中心可以用同样的电源功率支持到两倍数量的计算机系统,这样就大大提升了机柜中服务器的安装数量,同时又不会带来任何过热问题。该公司试验的结果是直接芯片冷却可以带来285%的处理能力提升。Callison现在已经在向客户广泛推荐这样的解决方案。

    Gartner的分析师Carl Claunch预测,尽管大多数人对于水或液体进入数据中心有一种莫名的抵触,但是还是会有越来越多的企业在数据中心中采用水冷技术。他建议商业企业在构建新的数据中心的时候一定要考虑包含水冷的基础架构,即便不是马上就要实现这样的设备,也同样需要为未来做好准备。他的理由是,随着业务规模的增长,所有的数据中心都将需要水管道,因为没有那种方法的冷却效果能够比水或液体来得更有效。

0
相关文章