|
曝光Google数据中心省电的三个秘密谈到云计算的诞生,肯定离不开一个地方,那就是Google的数据中心。Google的数据中心,不仅拥有数量庞大的服务器集群,而且整体运行效率很高,PUE(Power Usage Effectiveness,电力使用效率)很低,这些成绩离不开数据中心高温化、12V电池、服务器整合这三大数据中心优化技术。 谈到云计算的诞生,肯定离不开一个地方,那就是Google的数据中心。Google的数据中心,不仅拥有数量庞大的服务器集群,而且整体运行效率很高,PUE(Power Usage Effectiveness,电力使用效率)很低,这些成绩离不开数据中心高温化、12V电池、服务器整合这三大数据中心优化技术。
数据中心80华氏度 早在2008年,美国空调制冷工程师学会(American Society of HeatingRefrigeratingandAir-ConditioningEngineers)就建议提高导入服务器和数据中心其他设备空气的温度参数标准,将温度从华氏77度提高到华氏80.6度,但是,这样的调整直到一两年以后才被主要的设备供应商所接受,Google就是数据中心高温化的先驱,事实证明,Google的做法是值得借鉴的。 大中型数据中心的PUE普遍在2左右,也就是在服务器等计算设备上耗1度电,在空调等辅助设备上也要消耗一度电。对一些非常出色的数据中心,最多也就能达到1.7,但是Google通过一些有效的设计使部分数据中心到达了业界领先的1.2,在这些设计当中,其中最有特色的莫过于数据中心高温化,也就是让数据中心内的计算设备运行在偏高的温度下,Google的能源方面的总监Erik Teetzel在谈到这点的时候说:“普通的数据中心在70华氏度(21摄氏度)下面工作,而我们则推荐80华氏度(27摄氏度)“。 但是在提高数据中心的温度方面会有两个常见的限制条件:其一是服务器设备的崩溃点;其二是精确的温度控制。如果做好这两点,数据中心就能够在高温下工作,因为假设数据中心的管理员能对数据中心的温度进行正负1/2度的调节,这将使服务器设备能在崩溃点5度之内工作,而不是常见的20度之内,这样既经济,又安全。 还有,业界传言Intel为Google提供抗高温设计的定制芯片,但云计算界的顶级专家James Hamilton认为不太可能,因为虽然处理器也非常惧怕热量,但是与内存和硬盘相比还是强很多,所以处理器在抗高温设计中并不是一个核心因素。同时他也非常支持使数据中心高温化这个想法,而且期望将来数据中心甚至能运行在40摄氏度下,这样不仅能节省空调方面的成本,而且对环境也很有利。 用12V电池代替UPS 由于传统的UPS在资源方面比较浪费,所以Google在这方面另辟蹊径,采用了给每台服务器配一个专用的12V电池的做法来替换了常用的UPS,如果主电源系统出现故障,将由该电池负责对服务器供电。虽然大型UPS可以达到92%到95%的效率,但是比起内置电池的99.99%而言是非常捉襟见肘的,而且由于能量守恒的原因,导致那么未被UPS充分利用的电力会被转化成热能,这将导致用于空调的能耗相应地攀升,从而走入一个恶性循环。 同时在电源方面也有类似的“神来之笔”,普通的服务器电源会同时提供5V和12V的直流电。但是Google设计的服务器电源只输出12V直流电,必要的转换在主板上进行,虽然这种设计会使主板的成本增加1美元到2美元,但是它不仅能使电源能在接近其峰值容量的情况下运行,而且在铜线上传输电流时效率更高。 服务器整合 谈到虚拟化的杀手锏时,第一个让人想到肯定是服务器整合,而且普遍能实现1:8的整合率来降低各方面的成本。有趣的是,Google在硬件方面也引入类似服务器整合的想法,它的做法是在一个机箱大小的空间内放置两台服务器,这些做的好处有很多,首先,减小了占地面积。其次,通过让两台服务器共享诸如电源等设备,来降低设备和能源等方面的投入。 通过这三种数据中心优化技术,使得Google在运维方面节省了大量开支,同时随着云计算中心慢慢地在全世界“开花结果”,笔者认为这三种技术将来会被越来越多的数据中心引入。
责编:张欢 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:kaiyun体育官方人口
文章著作权分属kaiyun体育官方人口
、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 推荐圈子 |
|