【IT168专稿】在数据中心如何应对功耗挑战(上)里,我们介绍了如何重新设计数据中心,并在冷却功耗、电力设计、效率评估和模块化设计方面提出了建议。本文会从水冷技术和UPS设计方面加以阐述。
水冷技术的回归
热量,作为计算机处理过程中最恼人的副产品,是数据中心最大的敌人。过多的热量不仅会煎熬CPU,摧毁服务器,耗尽计算性能,使冷却系统不堪重负,而且最终还会吸取大量的电力资源。随着高密度服务器机柜系统的大量应用,这一问题变得越来越可怕。对于大多数据中心管理者来说,如何避免密集的系统因过热而罢工呢?很容易想到的一个解决办法就是——水冷。
我们看到,无论是一些不太知名的新秀厂商,还是IBM、HP等业界巨头都在开发数据中心冷却产品,将各种液体“喷洒”到计算的热点区域。一些解决方案采用了特别处理过的、绝缘的、无腐蚀性的水,也有一些方案采用了更为深奥的液体,不过殊途同归,目标只有一个,那就是尽可能有效地将热量消灭掉。
这一趋势颇有些回归过去的味道。二十年前,大型主机就是通过水套冷却的,其工作原理就如同汽车的发动机散热器,把热量从发动机中驱逐出来,释放到其他地方。不过这次这种方法也遇到了阻力,因为IT人员不愿意在采用大型空调系统控制温度的现代数据中心中再引入液体,他们的想法是所有那些昂贵的服务器,装满了复杂的电子组件和软件,最好还是保持干燥。
但是,确实是该重新考虑的时候了。随着数据中心包括的服务器机柜越来越多,并且还有更为紧密安装的刀片服务器,他们都比传统的单个服务器要产生出更多的热量,也就是说每平方米空间积聚的热量要比以往多很多,可能液体是保持冷却的惟一方法。想象一下,在炎热的夏天,投身到装满水的游泳池中与坐在电扇下面相比,哪一种方法会让你更放松呢?
IBM负责System X冷却技术的副总裁Gargan预言,到明年大多数商业企业花费在数据中心电源和冷却方面的资金将全面超过购买数据中心内部设备的成本,他将数据中心电源消耗和冷却称为“未来十年的IT战场”。
人们一般所采用的策略包括购买采用更低功耗处理器的服务器,重新配置数据中心分布以改善空气流,或者将冷却系统搬到离计算单元更近的地方等等。如果这些方法都不能解决问题,才会转向新型的液体冷却技术。液体冷却技术也有多种实现方法,从包围服务器的水套,到直接“喷洒”液体到服务器部件上的更为激进的方法。
专注与热量管理技术的公司ISR,最近刚发布了其SprayCool M-Series直接芯片冷却技术的商业版本。直接连接到微处理器的M-Series模块可以喷洒液体薄雾到包围处理器的冷却板上,从而带走一半以上的热量。已经在市场上出现很多年、主要使用在美国政府数据中心中的SprayCool G-series,则是直接喷洒绝缘的液体到服务器主板上。
爱默生旗下的Liebert和HP正在准备向商业市场推出直接芯片冷却技术。一年以前, Liebert收购了Cooligy,后者开发的一种冷却方法是向置于处理器顶端的一个金属板上喷洒经化学处理过的水,该金属板有100个以上的微通道来传输冷却液到芯片的热点区域。该技术已经应用到成千上万的工作站产品之中。
HP内部有一个称为Cool Team的团队正在从事贴近液体冷却系统、直接芯片冷却以及服务器和冷却系统的动态传感器控制。在一月份,HP发布了其首个“环境控制”冷冻水平台——Modular Cooling System,它可以直接连接到服务器机柜上,使用冷冻的水来向机柜发散冷空气。这一有效的冷却技术可以使得更多的服务器插入到机柜中。在以往为避免热量堆积,一般机柜中都会有很多插槽空闲。
分析:数据中心如何应对功耗挑战(下)
0
相关文章


