一、过多的电能
当系统工程师为整个公司的服务器设计供电设备时,他们使用和土木工程师设计隧道同样的方式,建造一个能够适应大流量的隧道。尽管隧道里大多数的车辆只是通勤车,工程师们仍然要确保隧道能够容纳大型卡车或者油罐卡车。
服务器也是一样。通常会指定基于大的系统配置及负载需要电源需求。但是系统工程师不需要如此辛苫。他们能够为不同的设置配备不同的电力需求。自然地,这将花掉更多的钱,因此他们倾向于在所有的布线模型中配置大的电能供应而不管实际使用的电量。
以图所示的服务器为例,两个服务器来自同一个系列WasteTech'sEscalenteline.左边的WasteTech'sEscalente5000SUX配置了足够的硬件,只需要60W的电能。右边的6000SUX的高配置安装上足够多的硬件后则要消耗540W的电能。然而两台服务器却使用了同样的电源。尽管目前的电源使6000SUX获得了足够的电能,但是对于消耗电量较少的服务器而言,则提供了过多的电能。这种过度供电造成了浪费。
但是问题并不仅限于同一系列的服务器。很多时候厂商选择一种能够适合所有设备的电源。同样的,问题在于浪费。虽然厂商选择同样的电源应用于所有设备要更便宜一些,而你最终要为低效率供电负责。更严重的是,环境也为此付出代价,因为设各的低效用电会产生更多的碳排放。
令人感到欣慰的是,许多像戴尔那样的公司提供了不同的电源配置方案,消费者能够根据每台服务器的工作情况选择合适的电源。特别是当这种配置方法贯穿服务器的整个使用寿命时,将大大地降低能耗。
二、效率
电源的效率通常用输出直流电量除以输入交流电量来计算。如果一种电源能够用更少的交流电产生更多的直流电,那么使用更多的交流电将比使用直流电节能。公式如下
效率=(输出直流电)/(输入交流电)
例如,如果有一种电源输入300W输出200W,计算起来很简单,就是用200除以300.
效率越高越好。在这个例子中,66%并不算好。一般来说,一种高质量的电源效率在75%~85%.例子中那剩下的34并不仅仅是消失了,而是转化成了热量,于是不得不再花钱去冷却这些热量。
当考虑了电源效率和系统冷却,计算机有效工作所消耗的电能可能低于驱动系统总电能的50%.那就意味着超过一半的能耗成了耗尽投资回报率(RDI)的无底洞,这种增长的运营成本对客户毫无益处。
不同型号与用途的机器可以使用不同种类的电源。
三、负载
就效率而言,当服务器闲置时电源是最低效的。那并不是说它们使用了更多的电,而仅仅是他们用电的效率低。就如同一台摩托车,当停在那里踩油门时,虽然消耗了汽油,却没有移动。但是当把车骑上车道时,最终能到达某地,那时被浪费的能量的比重要比你将车闲置的时候少。现在,想想看一台服务器配置最小化,但是却使用一个很大的电源。那个电源将产生许多无用的电。
厂商正在尝试着解决这个问题。然而就如之前所看到的那样,这将需要更多的前期投入,特别是使用昂贵的可循环材料。
四、冗余
数据中心常常配置多余的电源,原因显而易见,如果一个电源坏了,还有其他的能够保证服务器运转。事实上,在大型数据中心,电源在不同的电网上,所以如果交流电源在某个电网上出了问题,其他的电源与服务器还将继续工作。
冗余的电源配置对于确保设备正常运行是好的,但是对于能源效率而言则不然。比如,如果服务器运行需要200W,但是只有1个800W的电源,那么这台服务器只能使用25%的供电量。如果添加了1个冗余的电源,能源使用就在这2个电源问被拆分了,从每一个电源上仅能获取100W.这时将从25%的负荷、83%的效率,降到12.5%的负荷、65%的效率。
数据中心中的种种问题,归结起来其实是一个平衡的问题。系统可用性与降低能源使用和成本,究竟哪个更重要?