扫描二维码

订阅kaiyun体育官方人口 微信

云计算数据中心节能6招

来源:计世网  作者:kaiyun体育官方人口
2015/7/28 9:23:56
一直以来,降低数据中心的电能消耗、提升能源利用效率都是数据中心的核心需求之一。

本文关键字: 云计算 数据中心 节能

一直以来,降低数据中心的电能消耗、提升能源利用效率都是数据中心的核心需求之一。根据有关机构的统计,用电成本占数据中心整体运营成本的40%,4年的电费就可以重建一个数据中心,而在数据中心的电力消耗中制冷又是大户,占30%,与IT设备用电相当。

因此,降低制冷用电量对降低数据中心的电能消耗至关重要,特别是如今数据中心正在朝着规模化、大型化发展,对供电部门而言,保障这些巨型数据中心的电力供应存在不小挑战,而在国家大力推进节能减排政策的背景下,这一需求就更加凸显。

根据长期从事空调系统设计的中讯邮电咨询设计院建筑设计部高级工程师李红霞教授的设计经验,在一个典型的T3级数据中心中,空调用电基本接近IT设备,由于IT设备用电属于刚性需求,因此数据中心节能很大程度上依靠空调系统。不仅如此,在数据中心的各种投资构成中,空调配电系统占比也超过20%。

“可以说,空调系统既是数据中心的基础保证,又是建设中的主要成本,而且是运营成本的关键指标,所以合理设计和选择空调系统对数据中心非常关键。”李红霞表示。

节能的自然风冷却

鉴于在常规数据中心中,空调系统无论是其构建成本还是用电成本都是数据中心的各项成本构成中的重要部分。因此,一个很自然的想法就是去掉空调。其中,最为常见的就是利用自然风,特别是在一些高海拔和高寒地区,这一想法得到了很好的实践。

Google在比利时的圣吉兰(Saint Ghislain)数据中心就根本没有冷却装置,完全依靠纯自然冷却,即用室外的新鲜空气来为数据中心降温。此外,Google还透过“蒸发冷却”的方式来降低空调冷却的费用。Google位于俄勒冈州的数据中心,其冷却水塔采用蒸发冷却的方式,即先将数据中心所产生的热用冷却水来降温,这些热水再通过冷却水塔与外界的冷空气进行热交换,来达到冷却的目的,这就不需要额外负担电费来将热水降温了,通过这种“免费的冷却模式”来降低数据中心空调的电费。

Oracle公司在美国犹他州盐湖城的数据中心也是利用自然冷源来对数据中心进行降温的范例。盐湖城在夏季的平均温度低于33度,白天平均温度只有22度。Oracle盐湖城的数据中心全年有近6800小时可以直接利用室外新风来降温,这使得该数据中心整体能耗保持在较低水平,PUE值约为1.3~1.5,直接降低了整个数据中心的电力成本和运营成本。

位于瑞典、有Facebook最高效和最可持续的数据中心之称的“吕勒奥2号”,其一个独特之处也是采用了无空调设计,从而实现了低于1.5的PUE值。

不过,有业内专家指出,自然风冷却受限于自然条件。这里的自然条件不只是当地是否寒冷,还与其他环境因素相关。比如,有人曾在中国东北尝试过自然风冷却,但由于我国空气中含有硫等有腐蚀性物质较多,影响了服务器等IT设备的使用寿命,实验结果并不太理想。因此,目前完全的自然风冷却在我国的应用并不广泛。

混合制冷

如上所述,相对于传统的风冷空调需要耗电来降低数据中心内部温度,而把新风作为自然冷源就少了这个过程,因而可以带来明显的节能效果,进而降低PUE值。但新风制冷有很大局限性。比如,受自然条件影响大,而且初期投资高,需要专人维护,因此,应用范围有限,通常只能作为辅助的制冷方法。很长时间以来,研究人员一直在探索如何扩大其应用范围以尽可能发挥自然冷却的节能特性。办法之一就是在有条件时采用自然冷却,其他时候采用常规空调制冷的混合制冷模式。

五年前,艾默生网络能源在这方面取得突破,在传统风冷空调系统中加入制冷剂,在同一套制冷系统中实现常规制冷、节能系统制冷两套循环系统高度一体化,这就是艾默生网络能源的第一代智慧双循环节能空调SDC:在室外温度低于10℃时,泵工作,采用自然冷却;如果室外温度高于10℃,压缩机工作,采用风冷空调系统制冷。

应该说,在空调原有压缩机系统上增加一套节能泵系统,不是简单地叠加或者改动,这是一个非常大的创新,这其中涉及很多技术问题,包括泵的选型、如何控制等。

相对于传统风冷空调,SDC在室外温度低于摄氏零度时采用自然冷却,达到了一定节能效果,但低于摄氏零度时才能应用限制了其实际效果。为扩大利用自然冷风的温度范围,2015年5月正式推出第二代智慧双循环节能空调SDC2。

新一代SDC2拥有机械压缩制冷、混合制冷、自然冷节能三种制冷运行模式。与第一代在摄氏零度以下才能开启自然风冷方式不同,它在室外温度低于20℃时能开启混合制冷模式,从而大大延长了混合制冷时间,给数据中心带来最高40%的节能效果,以及更低的PUE。

选风冷还是选液冷?

在数据中心的节能上研究人员除了在利用冷源上进行探索外,也在冷媒方面投入很多精力,即采用水或者其他冷媒直接对IT设备进行制冷。

很长时间以来,风冷一直是数据中心管理的首选,因为风冷对基础设施的要求相对低一些,管理上也相对简单。不过,液冷这几年异军突起,特别是随着虚拟化云计算的大量应用,数据中心走向大型化,高热密度成为这些大型和超大型数据中心的常态。对于高热密度,风冷效率不高的问题开始显现出来。

液冷的出现就是要克服风冷在应用过程中的瓶颈,特别是对于那些高计算密度的数据中心,高计算密度带来的高热密度,在一些场景采用常规的风冷已经无法解决问题,而液冷的效果要比风冷好得多。液冷由此得到应用。

所谓液冷,是指通过某种液体,比如水、氟化液或是某种特殊的不导电的油,来替代空气,把CPU、内存条、芯片组、存储介质等器件在运行时所产生的热量带走。最常用的液体冷却技术称为紧耦合制冷,需要用管道将冷冻液(通常为水或乙二醇)输送到高架地板之上或者直接把冷冻液输送到机柜内部,然后通过风和冷冻液之间的热交换达到给机柜内部降温的目的。而其工作方式大致可以分为两种,一种是间接接触式,即冷板方式,设备本身不直接接触液体,而是先把热量传输给装有液体的铜制冷板,再通过液体循环带出设备,由于冷板只能覆盖部分发热元件,其他元件的热量仍然需要风扇来将热量带出去;另一种是直接接触式,即浸没方式,即把设备甚至是整机直接浸没在液体中,再通过液体循环把热量带出去。

实际上,为了解决高热密度机柜中的热点问题,一些数据中心已经开始转向到液体冷却了。据报道,谷歌现有的36个数据中心中绝大部分数据中心都是采用水冷却装置。

“一般而言,如果机柜设计功率超过6KW以上,就应该考虑液冷。设计得当,液冷与风冷相比,效率会提高38%以上。”威图电子机械技术(上海)有限公司产品经理李晟告诉本报记者。

对于用户对液冷前期投资成本大的担心,李晟表示,液冷在基础设施上的投资的确会高于风冷,但这种投入会在后期的运维上得到回报,更何况对于很多高热密度机房,液冷几乎是唯一的选择。“比如,在一些超算中心,机柜功率可以达到20KW,最高可以达到55KW,对于如此之高的功率密度,风冷是很难满足要求的。”

他介绍说,液冷技术这几年也在不断发展和完善,努力降低投资,并进一步提高制冷效率。比如,威图通过多年的研究,将液冷的进口温度从过去的7摄氏度提高到15摄氏度,通过这一提升可以大幅提高制冷效率。

从半液冷到全浸没式液冷

相对于风冷,液冷涉及到对数据中心的改造,还涉及到用户的使用习惯(最常见的担心是怕液体出现遗漏),当然,还有很多复杂的技术细节,比如凝露问题的解决,这些都妨碍了其普及。因而在普及过程也出现了一些混合模式的产品。记者注意到,在日前举行的曙光技术创新大会上就展出了曙光的液冷服务器TC4600E-LP,其设计为采用液冷+风冷的组合冷却方式,来实现服务器热量的有效转移。具体而言,它在服务器最重要的设备上也是主要的耗能器件——CPU上实现了液冷,而其他器件依然采用了常规的风冷模式,这在一定程度上解决了高热密度的问题,同时又无需对数据中心进行大的改造。

不过,要真正彻底解决机柜中的高热密度问题,还得靠像惠普的Apollo 8000这样的设备。Apollo 8000是惠普去年年中发布的一款高性能计算机,也是首款采用100%水冷设计的超级计算机。Apollo 8000直接用水对CPU、存储、内存进行冷却。相比而言这种水冷方式本身消耗功耗更低,散热也更加直接。Apollo8000的所有热传导都是通过接触式的传热组件来实现的,也就是采用热管直接接触散热配件,中间不存在从水冷到气冷的转换,所以它的能效会更好。

目前,研究人员还在研究更为高效的制冷来应对一些最为严苛的环境。曙光公司数据中心产品事业部总经理沈卫东介绍,终极的制冷方式应该是全浸没式制冷,即把所有耗能设备直接浸没在液体中,这才是一种革命性的变革。不过,技术的复杂性也要高很多,目前还处于研究阶段。沈卫东透露,曙光公司已经在着手进行相关的研究,在国外这也是制冷技术中的研究热点。

提升IT设备工作的标准温度

对数据中心而言,无论是采用风冷还是液冷,最终目的都是为了确保机房内的IT设备能正常工作。从这个角度说,如果机房里的IT设备即使在高温环境下也能正常工作,同时也不会影响设备的可靠性和寿命,无疑会大大降低对制冷系统的要求。相关研究显示,数据中心设备的温度每上升一度,就会节约4%的电能。实际上,提高IT设备的标准工作温度也正是当下研究人员的工作方向之一。

目前,IT设备的设计工作温度一般是20-25°C,同时对湿度和粉尘都有一定要求,为了符合这样要求,数据中心需要部署空调系统,对入口空气进行过滤,对湿度进行调节。

其实,IT设备的适应能力要比这好得多。英特尔公司曾做过11个月的对比试验,让一部分服务器放在传统机房环境,另外一些放到开放的环境中。研究人员发现,尽管具有灰尘、有不受控制的湿度以及较大的温度波动,这些处于室外条件的设备故障率与前者相比只高出了2%,却节省能耗67%。

实际上,很多著名的互联网公司,包括Google、Facebook、雅虎等已经在做这方面的尝试。根据国外媒体报道,谷歌就将数据中心设备温度提高到26.6℃运行。Facebook 2011年曾尝试提高每台服务器进风温度,从26.6℃提高到29.4℃,能降低40%的制冷相关成本。值得一提的是,Facebook和谷歌的数据中心为了降低成本,提高了温度,但它们使用的都是定制的服务器,这意味着它们可以设计服务器的冷却系统,在较高的温度下有效运行。实际上,普通服务器也可以在更高温度下正常工作,雅虎数据中心的工作温度都接近26.6℃,它们使用的也是普通商用服务器。

不过,相对前面提到的提高制冷效能的各种办法,提升机房工作温度一直接受程度不高。因为用户对这一办法心存疑虑,特别是担心对设备的可靠性和故障率产生影响,而这些是很难在短时间里显现的,因此需要提供权威的第三方认证的证据来让用户信服。另外,即使服务器厂商也对此持保留态度,出于保守的目的,它们也不建议用户这么做。这也在一定程度上了影响了这一方面的普及。

“归根结底,是因为数据中心是复杂的生态系统,提高机房内的标准工作温度需要的不仅是在调温器上的设置,还需要各方面、各环节的配套。”业内人士指出。

责编:何鹏
vsharing微信扫一扫实时了解行业动态
portalart微信扫一扫分享本文给好友

著作权声明:kaiyun体育官方人口 文章著作权分属kaiyun体育官方人口 、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。
畅享
首页
返回
顶部
×
    信息化规划
    IT总包
    供应商选型
    IT监理
    开发维护外包
    评估维权
客服电话
400-698-9918
Baidu
map