在新的数据中心,更高能量密度的处理器将集中在相对较小的空间里。
但随着能量需求和电费上涨,高密度计算环境可消耗大量运营预算。本文探讨如何通过优化以及IT 及OT 效率提升来提高现代数据中心的能效。
国际能源署(IEA)最近预估,尽管数据中心工作负荷将在 2014 年至 2020 年期间增至三倍,效率提高意味着其用电量有可能仅需增加 3%。即使是小型数据中心也可通过有效管理,正确的 IT 硬件、电源及冷却设备的选择来节省数万美元。
大型私营企业数据中心将为企业 IT 奠定坚实的基础,有望在 2021 年占到所有工作负荷的一半。对于很多私营企业数据中心而言,这种大公司采用的基于网络的现代数据中心要追求极高的效率,从技术或经济来说往往不可行。但在多数情况下,可通过短期行动以获得直接利益,节省很大一笔电力电费。
能效测量
多年以来,在任何数据中心经营者的愿望清单上,低电能使用效率(PUE)一直排在最前面, PUE=数据中心总供电量/IT 设备用电量。PUE 一直是专家之间争论的焦点,但都一致认为“越低越好”。
总电量是指整个数据中心运行的电量。IT 设备用电量被定义为在一个数据中心管理、传输、存储或处理数据的设备运行所需要的电量。
这些测量提供一个基准,允许数据中心管理者将用电量与其它数据中心对比。但根据绿色网格联盟(一个专注于提高数据中心和业务计算体系能效的全球产业联盟)提供的公式,有不止一种计算 PUE 的方式,因此很难进行比较。
1.0 的 PEU 额定值相当于 100%能效。美国能源部伯克利实验室的一项研究发现,多数数据中心的 PUE 保存在 1.3 至 3.0。根据 Uptime Institute(专注于 IT 设施认证的一家咨询机构)的最新调查,一个标准数据中心的平均 PUE 为 1.67。这意味着,对于该中心接收的每 1.67 瓦电量,只有 1 瓦输送到 IT 设备。
综合法
由于其动态性,PUE 应依据一系列值测量值,并计算出一个时期的平均值。任何时间点的值取决于现用服务器台数、采暖通风与空调(HVAC)系统上的负荷等因素。电气与机械系统的质量与龄期也是重要因素。当所有服务器接近满负荷运行,可获得最好的 PUE 值;当为节省电费而关掉备用服务器,可增大 PUE 值。
在过去几年内,数据中心能效提高趋于平缓,在某些情况下可能变差。最大的基础设施能效提高发生在五年前。进一步改进需要投入大量人力物力,而回报越来越少。
在测定一个数据中心的能效时,行业需要比 PUE 更准确的性能标准。我们希望更清楚地了解如何向每个数据单元的 IT 系统馈电。PUE 的一个重大局限性是,它测量支持一个数据中心的整个建筑物基础设施的总能效,但并未指明 IT 设备自己的能效。
在另一方面,IT 设备能效是数据中心总 IT 输出除以至 IT 设备的总输入功率所得值。但如何测定IT 设备耗电量?
根据绿色网格联盟,可在所有功率转换、开关和调节完成以后准确测定 IT 设备能效。因此,要正确测量输送到几个服务器机架的总电量,测量点应设在配电装置(PDU)的输出端。
就所服务的网页数或者交付的应用数量而言,IT 输出是指数据中心的真实输出。实际上,IT 效率表明 IT 设备针对具体供电单位的电力有效使用。
现场基础设施能效显示支持 IT 设备运行的电量以及输送到配套系统(如备份电源及冷却系统)的电量。这两个数字使你能够追踪能效并发现机会使 IT 设备输出最大化;通过减少损耗以及配套系统中的低效率,可降低输入功率。
尽管没有关于 IT 效率的行业基准,但有一些现场基础设施效率基准。一些备选 PUE 标准包括绿色网格联盟的数据中心生产率(DCP)和数据中心能源产出率(DCeP)、Uptime Institute 及麦肯锡的企业平均数据中心效率(CADE)以及 JouleX 的效能功耗比(PPW)。但就目前而言, PUE 仍然是主要基准。
提高数据中心总效率的十种方式:
1.最大程度减少 IT 设备空闲
就其容量而言,IT 设备的利用率通常十分低。服务器的利用率只有 5-15%,处理器利用率为 10- 20%,存储设备利用率为 20-40%,网络设备利用率为 60-80%。
但即使任何此类设备空闲,设备仍然消耗大部分电能。一台标准服务器即使是在完全没有工作的情况下也会消耗 30-40%的最大功率。
Uptime Institute 发现,全世界 30%的服务器未使用。这不影响数据中心的 PUE,但会产生300 亿美元的电力浪费。因此,发现并关掉未充分利用的设备部件似乎是最有效的策略。
然而,由于存在根据减少能耗的容量需求打开和关闭服务器的算法,关掉服务器不一定是最好的解决办法。反复开关服务器会消耗电能,并引起存储磁盘严重磨损。
应对全世界 1 千万“僵尸”服务器的更好做法是分布式计算,它将把计算机连接起来,如同它们是一台机器。增加协同工作的数据中心的数量,可提高其处理能力,从而减少或避免使用特定任务的独立设施。
2.服务器与存储单元虚拟化
在整个行业,我们可看到仅仅为了保持物理分界线而使用专用服务器及存储设备,这种利用率低下的案例有很多。然而通过虚拟化,可将服务器和存储设备集合到一个共享平台上,同时维持操作系统、应用程序、数据与用户之间的严格分离。
多数应用程序可在独立“虚拟机”上运行,而这些虚拟机在后台与其它应用程序共用硬件。虚拟化可使多数数据中心受益,大大提高硬件利用率,减少耗电服务器及存储设备数量。虚拟化可将服务器利用率从平均 10%-20%提高到至少 50-60%。
虚拟化不是希望提高能效的所有数据中心的出路,尤其是当它们被用来管理一天中的最大负荷时,这种情况下未得到充分利用,空闲硬件是必要的。
3.合并服务器、存储设备及数据中心
在服务器层面,刀片服务器为它们消耗的电能提供更多处理输出,因此有助于推动联合。一个机架上的每个刀片共用电源、风机、网络及储存空间。与传统机架式服务器相比,刀片服务器完成同样的工作可节省 20-40%的电能。
合并储存设备带来另一个机会。由于大磁盘驱动器能效更高,合并储存设备可提高内存使用率,并减少用电量。高速固态驱动器的使用应当仅限于要求即时响应的应用。
最后一点也很重要,如果未充分利用的数据中心可集合到一个地点,通过共享冷却及支持负荷的备份系统,除节省空间以外,经营者还将收获的成本节约。
由于越来越多地使用‘超大规模’设备,而这些设备采用有组织的统一计算体系构架,可轻易升级到成千上万台服务器,数据中心用电需求可停留在大致相当于过去五年的水平。
平均起来,一个超大规模数据中心的一台服务器能够替代常规数据中心的 3.75 台服务器。在2016 年的一篇报道中,劳伦斯伯克利国家实验室估计,如果美国小型数据中心 80%的服务器迁移到超大规模数据中心,用电量将减少四分之一。据 IEA 称,超大规模数据中心用电量占全世界数据中心用电量的 20%,到 2020 年,它们将占到一半。
4.有效管理 CPU 用电
运行一台服务器所需要的 50%以上的电量被中央处理器(CPU)消耗。芯片制造商正在开发更高能效的芯片集,并且多核技术使高负荷处理的用电量减少。
也可通过其它手段减少 CPU 用电量。多数 CPU 带有电能管理功能,可通过在多种性能状态之间动态切换大大优化能耗。通过大大降低最佳性能任务之外的处理器电压及频率,CPU 可最小化 能量损耗。
此类自适应电源管理减少能耗但不会影响处理能力。如果 CPU 多数时候在接近最大容量的状态下运行,这种功能的优势不明显,但当 CPU 利用率变化时,可带来可观的节省。
5.电力供应的发展
将输入交流电(AC)转化成直流电(DC)的电源装置(PSU)消耗大约 25%的服务器用电量,仅次于 CPU。将 12V DC 转化成至处理器及多个芯片集使用的各种直流电压的负载电压调节器是另一个耗电设备。
已经有几个关于提高服务器部件能效的行业标准。80 PLUS 认证电源装置正在成为现代 IT 设备的主流。该认证因 80%的最低能效而得名,应对 20%、50%和全额定负荷下的能耗。
PSU 能效越高,用电量越小,产生的热量也越少。所产生的热量很关键,因为它影响 PSU 的性能及其所有内部零件的使用寿命。
高效 PSU 昂贵,但可为数据中心带来更大的节省。如果 PSU 以 90%的效率运行并且电压调节器以 85%的效率运行,服务器的总能效将超过 75%。
6.选用高效 UPS
数据中心需要的电力在传输到 IT 设备之前,需要通过不间断电源(UPS)和配电装置(PDU)。 PDU 通常以 94%-98%的高效率运行,因此 UPS 中的电能转换效率是数据中心能效关键因素。
UPS 技术发展大大提高了工作效率。在 20 世纪 80 年代,大多数 UPS 系统使用可控硅整流技术将电池直流电转化成交流电,运行开关频率较低,效率最高只能达到 75-80%。
随着绝缘栅双极型晶体管开关器件在 20 世纪 90 年代的出现,开关频率得以提高,能量变换产生的损耗大大降低,使得 UPS 能效提高到 90%。今天,由于高速开关的使用,UPS 中不再需要变压器,能效已经可以提高到 94%(说明,其实最新的技术已经到 97%以上了)。
但在评估 UPS 效率的时候,只考虑峰值效率是不可取的,因为它们不大可能满负荷运行。很多IT 系统使用双电源作为备份,而标准数据中心的 UPS 容量利用率不到 50%,在有些情况下甚至只有 20-40%。
上一代 UPS 在低负荷下的能效也极低。除可观的成本节省以外,今天的高效 UPS 还通过更好的内部散热延长电池使用寿命,提高整体可靠性和性能。
另外,大多数数据中心使用双变换 UPS,它将输入交流电转化成直流然后再恢复到交流。这为IT 设备提供了一种纯净、稳定的波形,使之与输入电源有效隔离。 如果 UPS 如果不是对输入电源进行变换,仅仅只是工作在线互动模式或者通过被动的旁路系统给负载供电的话,运行的效率会更高。
7.更高电压等级的配电
为符合全球标准,几乎所有 IT 设备都在 100V-240V AC 输入电压下工作。电压越高,设备效率就越高。但多数设备在低压下运行,牺牲了效率。
UPS 可在 120-415 V 电压下运行,而配电装置(PDU)将功率降低到 208 V(IEC)或 120V(UL),以便为服务器供电。由于工作于更高电压下的 IT 设备,当 PDU 内的降压变压器可以去除,电源的的能效可以提高很多。当通过 415V 输出电源(可向一台服务器直接馈电)运行一台 UPS,可实现 2%的能耗降低。
8.采用最好的冷却技术
数据中心冷却系统用电量占总用电量的 30%-60%。很多数据中心本来可以通过采用更好的技术降低冷却费用。
▲2019年中国数据中心分系统能耗占比
首先是使用热通道/冷通道外壳配置。将设备交替布置在一个带冷空气入口的通道内,将下一台设备布置在带一个热空气出口的通道内,可使服务器室内有更均匀的气温。在设备外壳内部设置挡板,可确保来自热空气和冷空气通道的空气不混合在一起。
‘旁路气流’影响计算机机房内 60%的冷空气供给。密封电缆输出可最大程度减少这种现象,冷空气被抽回冷却装置,而不是在整个数据中心均匀地循环。
使空调装置靠近外壳以及垂直于热空气通道,可提供最大程度的制冷。可采用空气冷却机用变频传动等节能技术,进一步优化冷却系统。
但由于服务器机架密度不断增大,需要考虑液体冷却技术。事实证明,在机架密度为每个机架 2 kW-3 kW 的安全、可控的环境中,传统空调系统十分有效。但在今天,我们希望创造一个可支持更高密度的环境(超过 30 kW),在该环境中,空气冷却系统无法满足需求(还差 25 kW)。
9.在更高的环境温度下运行
服务器房通常保持在 22°C 左右的环境温度下,空调装置出口温度为 15-16°C。但根据现行标准,在不影响 IT 服务连续性以及不产生任何额外费用的情况下,可将该温度提高几度,以节约能源。
自 2015 年以来,美国采暖、制冷与空调工程师学会(ASHRAE)建议机架入口温度范围为 18- 27°C,湿度为 8-60%。对于多数新设备,建议温度范围为 15-32°C,耐湿性为 8-80%。
通过增大机架入口温度,也可使用自然冷却或自然空气制冷系统,利用室外空气将新鲜空气吹入室内或者使用自然冷却水而不是冷冻水制备装置。
当服务器房内的建议温度是 25°C 而不是 15°C,可采用自然冷却,无需延长一年中的空调开启时间。这也适用于自然空气制冷,建议温度设为 15°C 而不是 7°C。
10.参与智慧电网
智慧电网 - 下一代电网可以实现双向能源流与信息流,以便建立一个自动化和分散式输电网络。传统电网专注于将电能从几台集中发电机输送到用户,而智慧电网利用实时监控设备最大程度减少中断。
它们可自动检测问题,就输电线路中的问题作出即时响应,并将易出错链路与主电源网络准确隔离。智慧电网的通信与测量技术可通过智能设备告知数据中心其所在地区什么时候电力需量大,在动态定价时代具有巨大优势。
智慧电网也可促进可再生能源与分散式发电之间的深入融合。另外,借助综合监测与控制,智慧电网可解决可再生能源波动的问题,维持电网中一致、稳定的电力流。
数据中心经营者不仅可从电网获得清洁电力,也可自己安装可再生能源发电机,提供临时供电。发电机与用电设备可实时交互,提供有效工具,以便接收经济电力供应或应急减载信号。
结论
数据中心用电量占全世界用电量的大约百分之二。今天的数据中心每年要消耗 416 太瓦时电力,它支持不断增长的信息及通信技术行业,碳足迹与航空业不相上下。如果加密货币使用和 5G 技术发展达到预期的普及程度,能耗将成指数递增。
要管理这种激增,数据中心需要提高其能效。管理 IT 设备能效与合理利用资源一样有前景。通过使用更好的软件与硬件,不仅降低能耗,也增大设备的实际计算输出,这是在追求更好 PUE值的过程中经常被忽视的一个因素。
另一个很有前景的领域是冷却基础设施调整。当机架密度越来越大,未来可能更多地使用液体冷却技术。同时,通过简单的设备重构以及更好的设备管理,利用现代设备的更优耐热性,无需增加硬件投资。
更高效的 UPS 与 PSU 与能够在更高电压下运行的设备组合,帮助数据中心降低其能耗。通过广泛采用智慧电网技术以及使用现场可再生能源发电,他们也能够更有效地管理电能。我们正在走向未来,而数据中心不仅仅是消费者,也是电网的贡献者。
来源:网络
本文标题:数据中心系统节能降耗的十种措施
本文链接:https://www.blueocean-china.net/faq3/237.html [版权声明]除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。