数据中心 频道

分析:如何应对数据中心电力危机(下)

    【IT168 专稿】编者:在“如何应对数据中心电力危机(上)”里,我们分析了数据中心面临的电力危机,以及如何应对的两种方法——替换老机器;采用刀片和虚拟化技术。在本篇里,我们将探讨改变冷却方式和采用绿色电源的可行性。

改变冷却方式也能降耗

    用更高效和更强性能的新机器代替老的服务器只是重要的第一步。但真正让数据中心的能耗降低下来还要靠管理人员将传统的IT设备的低效率使用提升起来。

    劳伦斯伯克利国家实验室的科学家乔纳森.科默利表示,典型的数据中心中服务器每消耗1瓦特能耗,同时在其它方面消耗的能量也要在1或者1.5瓦特之间。为了解决这个问题,IT经理必须清楚地知道空调系统、电力设备和其它装置中长期存在的缺点和不足,想办法克服它。

    “现在还没有真正有人从IT的角度看待电力费用,然后说,‘我正为此节省1000美元’。” 绿色IT组织的负责人理查德.霍奇说。这是一个顾问组织,主要是给客户如何减少IT的能源消耗提供建议和方法。

    Aperture 技术公司的CEO比尔.克利夫德同意上面的这种观点。Aperture公司目前提供数据中心的管理软件。克利夫德建议IT经理:“去找出你容易联系的人是谁,然后成为真正的好朋友。今天一个聪明的CIO一定需要那种满足未来需要的员工在自己的团队了,而不仅仅是解决当前问题的那种。”

    绝大多数数据中心的冷却系统最大的问题是设计的线路超过了实际的需要,美国电力转换公司(APC)CTO尼尔.拉斯莫森说。APC是一家为数据中心提供电力产品和服务的供应商。拉斯莫森许多数据中心设计电路一般是服务器等需要额定功率的3倍。“许多人想,‘我将为将来提前购买电力和冷却设备’。”他说,“事实上,你已经像有了一台8000马力的发动机,它正在熊熊地燃烧。”

    在过去的十年里数据中心快速的扩张也带来不少的问题,因为安装空调系统需要将墙全部拆除。而现在许多设备都采用了模块化设计,只要留够空间就行了。

    降低降温费用的另外一个策略就是改变传统的机柜行排列方式。在那种方式下冷空气需要通过数据中心的地板上专门的管道才能给机柜里的服务器降温,而从通风口出来的空气往往又混合了房间里较热的空气。因此这种方法要求冷却系统将机柜的温度保持在45度或者更低,这样带来了额外的消耗。

    新的机房降温方式采是用机架降温方式,也即将冷空气直接进入机架。这种方式下不会混合周围的空气,因此空气温度只要降到70度就行了,大大降低了冷却系统的工作。机架导向散热方式还能带来一个额外的好处,就是送进的空气比较湿润,这在很多地方就可以减少加湿器带来的能量消耗了。

    其它降温的方法包括简单改变数据中心地板的设计,让一台服务器用过的冷气,不再通过出风口进入另外的服务器。

考虑绿色电源

    这里还有其它的方法来驯服数据中心的电力“怪兽”。一种可能性是数据中心在不久的将来使用直流电。直流电方式不仅能让新建数据中心受益,甚至是已使用交流电的数据中心也能从中受益。

    人们在设计电力系统的时候往往还有一个多余的做法,就是系统电力的容量远超过实际需要的量,Ecos 顾问公司的分析师克里斯.卡维尔说,一般如果服务器的额定功耗是150瓦,就会给它配置上300瓦的电量。然后在众所关注的冗余方面,IT经理会增加又一个300瓦的供应,进一步扩大了电力系统所需的功耗。“企业完全可以通过提高效率而让能耗降下来。”克里斯说。

    最后,还有一个选择是建设新的数据中心,或者重新部署当前的大数据中心,将它们迁移到电力比较廉价的地方去。这是一些咨询公司给企业的很好的建议。

    “有些人往往会说‘我上百万美元的电力账单太贵了’,”克里斯继续说,“但我们要说,‘菲尼克斯为什么会吸引大量投资,是因为它的电价是纽约的三分之一。’同样地,我们建议企业去菲尼克斯这样的城市去建数据中心,以降低投资风险。”

    不论企业采取何种措施,他们原先那种可以忽视数据中心能耗和降温问题的日子一去不复返了。不久前,衡量IT经理们业绩的标准还是系统的可用性和可靠性,他们的工作职责也主要是保证公司业务系统的不中断,并且给了相当宽泛的误差范围,应对偶然事件导致的各种问题。现在,情况越来越糟,一些数据中心居然需要超过20兆瓦的电力,这足够供应25000个城镇家庭使用了。

    “如果数据中心的CIO或资深副总裁还不重视电力问题,并积极采取措施,不久肯定将发生大问题。”Aperture公司的克利福德说,“如果还是继续不加管控,数据中心的电力消耗问题最终会影响到整个美国的生产总值。”
0
相关文章