电源使用效率(PUE) 是最常用来评估一家数据中心运作情况的指标(尽管在某些方面其存在严重缺陷),该指标使用数据中心的总能耗和由IT设备本身所消耗的能耗量之间的比率得出。当刚刚开始采用PUE作为衡量指标时,许多数据中心的PUE值都在3个以上的高分运行,有许多甚至达到5以上。即使是现在,根据研究机构Digital Realty trust的调研报告显示,全球已报告整体平均PUE值为2.9.

而另一项由Uptime Institute主办的研究,则得出了全球整体平均PUE值为1.85的结论。但问题始终是存在的,即数据中心每消耗一部分电力以为其IT设备供电,必然有部分的电力要用于数据中心设施本身。

想想看,IT设备包括数据中心所有的服务器,存储和网络设备。所有其余的电源使用都被计入所谓的“周边系统”,包括照明,不间断电源(UPS)系统损失和冷却。即使是一家大的数据中心也在努力使其照明和现代UPS系统的能源效率能够达到98%以上。而周边功率大的用户是冷却。

现在,是时候让数据中心的冷却在您的控制之下了,其可能并没有一般IT专业人士所认为的那样难。

数据中心并不一定要非常冷

首先,时代变了。数据中心IT设备标准指导运行温度也已经发生了变化。数据中心不再需要保持17-19 ℃的空气环境温度。根据美国采暖,制冷与空调工程师学会(ASHRAE ,American Society of Heating Refrigerating and Air conditioning Engineers)最新的指导方针,允许数据中心环境运行高温度达到20℃以上,在一些特殊情况下可以达到30℃,甚至40℃。这可以帮助数据中心运营商大大减少能源消费账单了。

但这并不是数据中心运营商们所能做的全部。其实有一整套的冷却方案值得数据中心运营商们借鉴,以便产生快速的投资回报。

集中冷却最需要冷却的地方

在整个数据中心范围内都使用冷却空气仅仅只为了给部分体积小的设备降温,无疑是一种浪费。数据中心管理人员应该使用冷热通道的方法减少所需的冷空气量。这可以通过具体的解决方案或者将机架系统的行与行之间的空间覆盖耐火材料,在每一端使用阻燃聚丙烯来实现。检查机架以确保冷空气通过冷通道传输到设备的热点但不绕过他们,但这可以方便合理地监测。

集装箱式数据中心

对于那些正在审查其基础设施,想要移动到高度机架,采用整体冷却的数据中心而言,集装箱式数据中心可能是一个很好的方法。

使用密封机架,如Chatsworth Tower系统,包括机架内本身的冷却,冷空气从堆栈的底部引入,而热空气从顶部离开。

来自诸如爱默生和APC这样的供应商所提供的系统,能够为机架冷却系统提供更多的工程解决方案,个别CRAC系统在机架行内,可以用更具针对性的冷却。

液体冷却和空气冷却

基于液体的冷却系统也卷土重来。后门水冷却器是一个适用的解决方案,涵盖了机架的背面,利用冷却空气去除多余的热量。其他系统直接作用于IT设备,使用负压系统,将水通过管道,所以即使发生泄漏,空气会被吸入系统而不是被水压排出来。IBM的Aquasar和Chilldyne就提供这种系统——但这些都是侵入性的,因为它们的使用需要使用的特定的翅片式换热器,被连接到被冷却的芯片。

其它系统,如Iceotope和liquidCool,提供完全将模块沉浸介电液体的有效方法去除热。Green Revolution提供了电介质使得设备可以浸没到液体,保证现有的设备能够继续使用。这些系统都可以除去热量,并可以在其他地方重复使用这些热能,例如加热的水被用于企业的其他部分。

室外空气冷却方案也是可以考虑的其他方案。在最北部的气候条件下,一年只有几天的时间外界温度是超过冷却设备需要的运行温度的。诸如Kyoto Wheel这样的系统允许外部空气以最低的成本被充分利用。

绝热冷却,这种方法让液体蒸发的环绕着需要冷却的物理设备的周围环境,适用于外界温度往往超过ASHRAE指导的气候条件下,或支持更为温和的气候地区,其室外的空气温度低于系统设备运行所需要的操作温度。如EcoCooling公司,Munters公司,Keysource公司,Coolerado公司就提供数据中心所使用的绝热系统。

其目的是大限度地减少能量的使用,以保持数据中心的IT设备在其所设计的热参数访问内操作。使用上面提到的那些方法,像4D Data Centres这样的公司已成功地建造和运营出PUE值达到1.14的数据中心;而 Datum的数据中心运行的PUE值则为1.25 ;谷歌的PUE值是1.12左右。

这意味着,对于一家现有功率要求为1MW的大型数据中心,现在的PUE值是2,其中500kW能耗将用于IT设备消耗,而500KW能耗用于数据中心设施。通过审查冷却方案可以将PUE缩小到少于1.2.这样,同样500KW的能耗用于IT设备负荷,就只有不到100kW的能耗用于数据中心设施。在这种方式中,节约了400kW的电力成本。在许多情况下,企业都是采用的低成本,低维护的解决方案。

那么现在,是时候花点时间来回顾一下您企业数据中心的冷却方案了吗?答案显然是肯定的。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2025-04-25 11:11:02
国内资讯 万国数据全国首单“数据中心持有型不动产ABS”在上交所 成功挂牌上市
本次发行是贯彻落实中央‘金融五篇大文章’要求的生动实践,通过‘持有型不动产ABS+可持续挂钩’这一创新,实现了资金用于金融数据中心核心资产收购和运营。 <详情>
2025-04-01 18:19:39
国内资讯 普洛斯中国首支数据中心基金完成募集,投资规模约26亿人民币
普洛斯推出首支数据中心收益基金,提供稳定收益和长期增长并重的投资产品,满足投资人需求。 <详情>
2025-03-26 16:35:02
国内资讯 中国移动成渝(重庆)江南数据中心正式投产
3月20日,中国移动成渝(重庆)江南数据中心(以下简称“江南数据中心”)投产暨战略合作协议签约仪式在南岸区、重庆经开区举行。 <详情>
万国数据发布2025年第四季度及全年财报——全年新增使用面积 创历史新高,全国资源储备充足
2026-03-18 09:13:38
维谛技术(Vertiv)发布 Vertiv™ CoolLoop RDHx 冷冻水背板空调,进一步完善 AI 与 HPC 场景下的液冷生态
2026-03-16 16:33:00
57亿算力大单落地(哈密28、德令哈15、百度8.4)、阿里143亿将交付、润泽238亿港元重仓香港、16项目15智算6备案、中移50亿1.5万P中心封顶
2026-03-11 14:25:00
“算力绿洲”——中东地区数据中心及云项目盘点
2026-03-11 11:33:28
数据中心她力量:AIGC 浪潮下,八位领军者原声解构算力新周期
2026-03-11 11:31:08
深度|泰国算力交付全面提速,AWS、Google、微软、阿里云、TikTok五大巨头押注EEC走廊
2026-03-11 11:23:00
总金额超9.6亿元,同一联合体连中宁夏两大算力项目
2026-03-10 11:40:29
1.2亿,廊坊市云风数据中心机电EPC项目公布中标结果
2026-03-10 11:38:22
Oracle与OpenAI放弃星际之门旗舰数据中心扩建计划
2026-03-10 11:36:30
中兴通讯2025年营收1339亿元,算力营收同比增150%,构筑AI端到端全栈竞争力
2026-03-06 21:37:00
定档 6 月 25 日,2026中国智算产业大会火热招商中~
2026-03-06 10:32:00
维谛技术(Vertiv):雅砻江畔,智算新篇|全国首个高海拔岩洞智算中心如何点亮绿色算力新纪元
2026-03-04 16:52:20
“不明物体撞击” AWS阿联酋数据中心受损起火
2026-03-03 09:50:56
算力租赁行业涨价潮持续 或于2027年缓解
2026-03-03 09:48:36
某银行巨资「爆改」老机房;智算大单惨遭「弃标」;某大厂110亿购AI服务器;某公司高价托管「液冷机柜」丨算力情报局Vol.05
2026-03-03 09:46:00