【IT168 专稿】2010年绿色数据中心发展与实践高峰论坛在京成功举办,此次大会的主题是“绿色数据中心产业发展与非常好的实践”,来自数据中心的各大领域的专家聚为一堂,探讨如何结合行业实际,打造更加绿色、高效、节能的数据中心,做好节能减排。【IT168专题报道】
能源危机时刻 众志成城打造节能减排的绿色数据中心
温家宝总理在哥本哈根气候变化会议的领导人会议上提出了凝聚、共识、加强合作、推进应对气候变化历史进程的重要讲话,再次强调了我国在节能减排中的工作中起到的领导作用。本次大会通过论坛的形式,政府主管部门、运营商、服务提供商和最终用户连接起来,为打造一个绿色节能、低碳高效的数据中心应用环境而共同努力。在政府部门的领导下,中国移动、中国电信、中国联通三大运营商也纷纷表示节能减排的决心,并展示了自身的措施和计划,各大数据中心厂商也纷纷展示节能减排的绿色数据中心产品和解决方案。
▲众志成城打造节能减排的绿色数据中心
工信部节能与综合利用司能源节约处副处长尤勇指出,在国内能源资源紧缺和供需矛盾激化的情况下,工业领域的节能,乃至工业的节能问题具有重要的战略意义。中国通信企业协会副秘书长钱晋群也谈到我国通信行业节能降耗的潜力相当可观。据统计,2009年通信业各种耗能费用超过300亿元,各电信运营商耗电3000亿瓦时。并且每年以15%的速度在增长,“十二五”期间通信基础设施能源消耗将极具增加,目前通信运营企业能源消耗主要为电力消耗,比重达到90%。
因此,节能减排是关乎人类生存的大计,而在工业化和信息化的今天,工业节能又是节能减排的一个重头戏,因此,信息产业的发展与能源之间的平衡是人类义不容辞的责任与使命。从口号到实践,我们已经有了许多的行动,在本次绿色数据中心大会上,也涌现出一大批数据中心节能减排的产品和解决方案,下面就让我们一起领略这些绿色数据中心的产品的魅力吧。
Eaton - Williams 冷水背板
节能思路:通过减少数据中心紧密空调的竞争运行,降低数据中心制冷能耗
方案介绍:应对知识社会发展的要求,数据中心发展速度惊人的加快,处理的速度不断提高,但高昂的场地费用的因素,要求服务器本身体积要越来越小。高速计算,网络服务器虚拟化以及集中化,其产生的症状就是散热。当今数据机房的耗能用电已经受到社会很大的关注,控制由于机房高密度化带来的排热已成为严峻的挑战。传统的机房空调,将室内空气冷却,然后通过架高地板下面再送入室内, 已远远不能满足现代化机房的制冷要求,并且耗能巨大。
▲参考项目:欧洲强子对照中心
伊顿威廉姆斯SERVERCOOL 为数据中心机房提供新的制冷解决方案。冷水背板SERVERCOOL方案可以解决单个机柜高达45KW发热问题。与传统的空调相比,冷水背板/CDU组合明显提高了能耗效率, 在我们实际的应用测算中, 节能由 40% - 75%不等。采用新的材料,在成本方面几乎降了一半。现在新的背板整个重量是15.8公斤。
艾默生精密空调组网群控控制器
节能空间:通过减少数据中心紧密空调的竞争运行,降低数据中心制冷能耗
方案介绍:在机房中的精密空调存在着竞争运行的情况,每一个空调的位置不一样,受气流组织的影响,空调的运行状态也不一样,有的空调在制冷,有的空调普遍是在温度比较低的情况下解热,还有的在加湿,有的空调在除湿,我们如何处理它们的运行状态,使它们有效运行?
▲
多台机组通过通讯电缆连接后可实现组网群控功能,网内机组之间能实现主备切换、轮巡、层叠、主机报警/断电备机启动等功能。
群控带来的效益主要包括:运行效率多台机组通信组网工作使整体效率得到提升,机组之间的竞争运行被避免;多台机组互相通信组网工作,优化温湿度的控制精度;多种群控方式,可以满足各个应用场所的要求。这些最终带来的是数据中心的节能、安全、和机组寿命的延长。
主要的群控控制器及其适合的场景: iCOM控制器群控,适用于PEX空调;PACC控制器群控,适用于CM及泛品牌空调;AC4、AC8控制器,适用于所有品牌。
世纪互联集装箱数据中心 — 云立方数据中心
节能思路:改进建筑设计措施,采用集装箱式数据中心,改进布局和设计,降低能耗。
方案介绍:集装箱式数据中心的概念:最早由Sun提出,将服务器、存储以及配套的制冷设备等产品规划进一个集装箱当中。目前,多家国外公司正在研发集装箱式数据中心,包括Rackable、Verari、HP、 Microsoft 、Sun、DELL、Google等。其中,Microsoft和Google已成功实现集装箱式数据中心的大规模应用。
▲ 一体化的云立方数据中心
世纪互联集装箱数据中心 — 云立方:40英尺标准集装箱高柜,9个54U机架,共486U,每个机架最大负载15KW,集装箱最大IT设备负载99KW,适用于深度不超过800mm的所有服务器。
节能效果:云立方数据中心缩短送风距离,空调安装于服务器机架之间,缩短送风距离,减少了送风过程中的冷量损失;提高冷通道温度:将冷通道温度提高到24℃,减少精密空调耗电量,达到环保节能的效果;冷/热通道完全隔离,可以防止冷热空气混合,减少冷量损失;新风系统,仅在人员进入箱体时开启新风机,既保证了操作人员的舒适,又缩短了新风机的运行时间;云立方内外安装隔热保温材料,冬季不结露,夏季冷量不外泄;云立方外表面喷涂反射隔热涂料,夏天防止太阳直射使箱体内温度升高。其它节能措施:无人时关闭箱内照明。
思科EnergyWise——智能能源管理解决方案
节能思路:通过网络能源管理,使IT运营和设备能够测量和精确调整能源使用,以显著降低能耗成本。
方案介绍:EnergyWise主要是用于实现无边届网络能源管理。Cisco EnergyWise是一个高度智能的网络解决方案,能够在网络设备和终端间传输能源测量和控制信息。网络能够发现Cisco EnergyWise可管理的设备,监控其功耗,并根据业务规则采取行动,降低功耗。EnergyWise采用唯一的域命名,从大量设备群中查询和总结信息,简化传统网络管理功能。
▲
Cisco EnergyWise是一个全新的能源管理架构,使IT运营和设备能够测量和精确调整能源使用,以显著降低成本。EnergyWise旨在降低所有连接至思科网络的设备的能源使用,包括从IP电话和无线接入点等POE设备到支持IP的建筑和照明控制器。它利用基于智能网络的方案,使IT和建筑物设施运营能够了解、优化和控制整个公司基础设施的功耗,并可潜在地影响任意用电设备。
双登集团:蓄电池空调仓技术
节能思路:机房温升+蓄电池独立温控,降低数据中心的能耗。
方案介绍:主设备及电源等工作温度范围大,为机房温升创造了条件,同时,提高空调启动温度设定值,减少空调运行时间,达到节能效果,超过35℃时空调启动制冷,低于30 ℃时空调停止运行,该解决方案采用蓄电池空调仓保证蓄电池的工作温度为15~25℃。
▲
VMware Infrastructure 3.5虚拟化软件套件
节能思路:提高IT设备的利用率,降低能耗
方案介绍:将物理资源抽象成逻辑资源(例如,让一台服务器变成几台甚至上百台相互隔离的虚拟服务器,或者让几台服务器变成一台服务器来使用),基础架构不再受限于物理上的界限,而是让CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,从而提高资源的利用率、简化系统的管理、实现服务器的整合,并让IT对业务的变化更具适应力。由于降低了系统的利用率,因此系统的总耗电量也会降低。
▲某局使用VMware虚拟化平台系统的拓扑图
以XX局数据中心改造为例,来说明虚拟化对于降低能耗的作用。作为含有40多个网站的互联网数据中心,为本局多种业务提供服务。拥有20台戴尔PowerEdge服务器和其它设备。电力资源紧张。基本用尽20KVA的限量供电。最后,本局采用了虚拟化的解决方案,新加 2台R900服务器和一台DELL EMC CX4-120光纤磁盘阵列(原有),还有一些外围设备,包括两台戴尔光纤交换机(原有),将R900、CX4-120组成SAN。2台R900上安装了VMware Infrastructure 3.5虚拟化软件套件。共整合了20台原有的物理服务器。整合效果令人十分满意,系统现有的总耗电量已经降低了50%。
IBM AEM 与 Tivoli 能耗管理框架
节能思路:通过能耗管理实现节能。
方案介绍:IBM强调的一个概念是信息中心需要做能耗的健康管理。就像人一样,经过实际的经验,大部分客户的数据中心跟很多人一样,属于类似亚健康状态。这些能耗,很多是被白白浪费掉的。IBM的能耗管理办法,正好说今天向人一样,每年都要定期做一个大规模的健康检查,提早预防,否则一旦出什么问题的时候,损失是不可逆转的。所以我们的服务围绕在能耗健康管理。
▲
HP DSC(Dynamic Smart Cooling)动态智能散热技术
节能思路:针对最需要的位置提供大容量的制冷,避免了气流的分散,节能显著。
方案介绍:针对传统数据中心机房的平均制冷弊端,惠普推出的基于动态智能制冷技术的解决方案--"惠普动态智能冷却系统"(DSC, Dynamic Smart Cooling),也是针对数据中心节能的一个不错的解决方案。动态智能冷却技术的目标是通过精确制冷,提高制冷效率。据了解,DSC可根据服务器运行负荷动态调控冷却系统来降低能耗,根据数据中心的大小不同,节能可达到20%至45%。
▲DSC(Dynamic Smart Cooling)动态智能散热技术
转轮换热器
节能思路:利用新室外新风制冷,降低空调能耗。
方案介绍:Free Cooling利用室外新风来制冷,或通过载冷剂将室外空气中的冷量引入室内的方法叫free cooling(免费制冷,自由冷却)。它的核心部件是热换器,高效率的热换器对节能起着重要的作用( Free Cooling+VED,PUE=1.3)。
▲