数据中心 频道

GPU将改变HPC格局?

  【IT168 资讯】最近,国内服务器领域关于超级计算机、高性能计算的话题不少,先是5月15日曙光5000A落户中国国家网格南方主节点上海超级计算中心; 随后的5月25日,联想深腾7000也在国家网格北方主节点中科院计算机网络信息中心投入使用,这两套系统的计算性能都突破了百万亿次/秒,堪称当前国产运算速度最快的计算机。

  据《2008年中国高性能计算机性能Top 100排行榜》显示,Top 100系统的总Linpack测试性能首次突破千万亿次,达到1.01 千万亿次,是2007年的3.29倍,与国际上的差距进一步缩小,单位计算能力的价格也进一步下降。

  而在应用范围上,除了能源、科学计算、政府部门、工业和气象等传统高性能用户的需求持续旺盛之外,动漫渲染、地震、视频计算和网络加速等新兴行业应用热点也不断涌现。

  除此之外,国内HPC厂商跟随技术发展的脚步也越来越快了。随着GPU在HPC领域的日益火爆,近期,浪潮、曙光、宝德等国内服务器厂商都相继推出了整合了GPU处理器的超级计算机。

  在这种形势下,不久的将来,中国的HPC市场会有怎样的发展趋势呢?

  GPU的挑战

  近几年,随着GPU的发展,人们开始尝试使用GPU来完成某些计算任务,但是由于编程模式的束缚,它并没有流行起来。然而,随着nVIDIA的Telsa芯片和CUDA环境的日臻完善,GPU走进了高性能计算领域,并向CPU提出了挑战。

  “GPU是一种用于科学计算的图形卡,它是多核CPU的一个主要竞争对手。关于GPU主要有三大优点: 它的速度很快,而且会越来越快; 价格很低; 能耗更低。”一业内工程师这样描述GPU。

  这说明了GPU的巨大潜力。AMD和nVIDIA最快的图形芯片已经达到了Teraflops层级,在这个范围内,普通多核芯片的速度就相形见绌了。

  那么,未来GPU能取代CPU吗?答案无外乎三种。

  第一、未来除了Power、SPARC、英特尔和AMD之外,Tesla可能会继续发展成为其中一个主流芯片,以GPU取代CPU的大部分功能和用途; 第二、GPU未来的发展也可能像AMD Fusion计划那样,与CPU融合在一起,在芯片层各自发挥各自的作用; 第三、GPU继续以辅助CPU的方式独立存在,比如作为专门针对图形应用的加速器,而大多数计算任务仍由CPU完成。

  第三种情况在国内早就有了应用。据中科院超算中心主任迟学斌介绍,这样的机器已经在中科院北京基因组研究所发挥作用了——每个人大约有30亿个基因对,因此在基因分析领域需要海量数据处理和计算。“尽管图形加速GPU技术很强大,单台计算力相当于10台普通高性能设备,但是GPU技术是这些年刚刚兴起的一种计算技术,应用还不成熟,所以,我们选用的是浪潮搭建的GPU+CPU的全新计算平台模式。”

  其实,大家对GPU最大的担心在于,它的编程方式不同于x86、SPARC或者Power CPU,这也是nVIDIA为GPU提供CUDA技术的支持的原因,CUDA允许GPU利用标准C语言或者Fortran进行编程,无需使用专门针对图形的API。

  为此,有人预测,未来的高性能计算系统中,硬件架构将成为一个由专门CPU和GPU类型内核所组成的系统。

  但就目前而言,高性能计算最具挑战性的问题仍是应用软件和能耗。

  并行软件呼声高

  目前,英特尔已经研究出具有80个内核,世界首个万亿次浮点运算性能的可编译处理器,在多核心时代来临时,对多核并行技术的优化至关重要。“多内核就是多CPU,多CPU就必然要采用并行计算才能发挥全部CPU的作用和功能。”英特尔公司软件产品部全球业务发展与营销总监兼首席软件专家James Reinders表示,未来如果没有并行软件,就不可能真正利用多CPU的功能,而要想发挥多核功能,软件首先要具备的就是并行计算能力。

  从技术上来讲,从上世纪40年代第一台计算机ENIAC的5000次/秒到目前的千万亿次/秒,速度提高了2000亿倍,这主要归功于硬件技术的发展。然而,在高性能计算领域,相对于硬件,并行软件技术却在几十年来都没有取得突破性的进展。特别是分布式计算技术、自动并行识别技术等,这种软硬差距在中国尤为明显。

  据了解,美国能源部虽然拥有世界上非常先进的计算平台,但实际花费在硬件上的投资不到总投资的1/6,大部分预算都花在了物理建模和软件算法上。“高端计算真正的危机在于软件,软件已成为了现代技术中最主要的经济开支。”迟学斌表示。

  硬件架构内计算组件的增加意味着我们要在应用程序的并行化上投入更多精力。而向并行模式转变并非易事,因为目前的很多项目都是在单核技术基础上实施的。

  “和其他国家一样,中国也越来越重视并行软件的开发。”迟学斌说道。

  前不久,浪潮宣布与中科院计算机网络信息中心及其下属的中科院超级计算中心达成战略性合作,双方表示将把浪潮的“天梭”高性能计算系统硬件和超算中心的应用开发技术进行整合,为广泛的中低端高性能计算用户提供“一站式”的HPC解决方案,缓解当前高性能计算产业“偏重计算峰值,忽视软件应用,导致软硬失衡”的尴尬局面。

  据记者了解,作为硬件系统专业制造商的浪潮和作为国内HPC应用开发“专家团”的中科院超算中心之所以一拍即合,是因为双方都看到了对方的优点和合作的价值。“作为国内HPC主要厂商之一,浪潮服务器在服务器硬件领域表现不俗。”浪潮集团高性能产品总经理刘军告诉记者,2008年浪潮的HPC业务增长了近200%。而作为国内最早的大型超级计算中心,中科院超算中心的优势则在于它所拥有的高性能计算机的应用经验,以及在并行计算领域的成绩。

  笔者认为,双方的合作模式也许没有什么新意,但是如果有更多的用户敢吃这一对“螃蟹组合”的话,也许对未来中国的高性能软件会有不小的改善。

  绿色IT和能耗

  在高性能计算领域,用户对于计算性能的需求是无止境的,这使得计算机系统的规模越来越大,系统功耗也成为超级计算机发展面临的重大挑战。

  以中国石油的计算处理中心为例,从2002年~2007年,CPU从340颗增加到13308颗,增长了近40倍。其运算能力也从189亿次/秒飙升到现在的高达139万亿次/秒,短短5年间处理能力获得了质的飞跃。正是凭借它强大的计算能力,处理中心在冀东南堡油田的发现过程中发挥了至关重要的的作用,为油井位置的选择提供了重要的依据。不过据统计,2005年处理中心有1500个CPU时,电费是334万元; 2006年CPU增加到2300颗,电费达到492万元; 2008年电费至少需要1500万~1700万元。

  在去年的全国高性能计算学术年会上,国家并行计算机工程技术研究中心、中国工程院院士金怡濂算了一笔账,当今全球百万亿次级超级计算机系统功耗在1000千瓦左右,一台千万亿次超级计算机系统的功耗能达到数兆瓦,每年的电费开销高达数千万元。 系统功耗是超级计算机发展面临的重要挑战。”

  此外,Gartner预言,在接下来的几年里,世界上一半左右的数据中心将受电力和空间的约束,能耗会占到一个IT部门预算的1/3。IDC也表示,IT组织能耗的花费将达到硬件花费的1/4。以往高性能必然高功耗的时代不会长久,评价高性能计算系统的优劣要看性能,更要关注能效。未来的超级计算机必须在节能方面有新的技术突破。

  因此,目前许多厂商已经将降低高性能计算系统的能耗和绿色计算作为努力的方向。

  例如处在高性能计算产业链上游的处理器厂商英特尔,就在制程工艺上采用了最新的45纳米技术,这不仅从晶体管层面解决了漏电问题,而且还可以让芯片体积更小、性能更高。

  另外,英特尔也在芯片中不断增强能源管理功能,如对能耗按需管理,降低空闲处理器内核的功耗,同时提升繁忙的处理器内核的主频。而在基础架构方面,英特尔认为一定要和整个产业的伙伴进行广泛合作,才能让整个生态系统共同走向绿色计算。

  在绿色计算的呼声下,国内的HPC厂商也越来越关注能耗问题。比如,为了将能耗降到最低,曙光的5000A超级计算机在选择芯片时,毅然决然的选择了AMD的低功耗设计CPU。据了解,该CPU比常规CPU要节约30%的耗电量,全系统也因采用低功耗CPU节电超过200千瓦。

  而结合了虚拟化方案的浪潮天梭TS30000还实现了高性能商用系统的高效能。“未来高性能计算用户们将更多地关注能源效率问题,因此,开发降低了能耗的高性能计算系统是很有必要的。”刘军说。

0
相关文章