从对数据中心内制冷单元运行勘测数据来看,发现有不少冷量由于没有被有效利用而导致流失,这些冷量若被善加利用,可以有效改善数据中心制冷量并降低运营费用。冷量流失的根本原因在于房间级旁通气流。

在数据中心领域,业界人士正不遗余力将气流组织管理(AFM)解决方案作为一种提高运行可靠性、降低运营成本以改善制冷能力的方式进行推广。

众所周知,在高架地板上的电缆出口处安装橡胶密封圈以及在机柜中没有放置服务器的地方安装盲板是消除热点的有效方法。但是,在使用气流组织管理(AFM)解决方案(如冷/热通道封闭)之前,这一简单的方法却没能得到足够重视,很多数据中心经常忽略不做或者嫌麻烦,只做了很少一部分。

尽管目前有很多种气流组织管理(AFM)和通道遏制解决方案,可对于大部分数据中心而言,数据中心内现有制冷量已经是所需制冷量的四倍,因此,在很大程度上,这些数据中心只需要通过合理规划、改善气流组织,就可以提高制冷效率,并能创造更多的潜在价值,只是这种优势目前并未得到认可。

大家对旁通气流有一个误区,认为只要管理高架地板上开口、或者采用通道气流遏制系统,就会消除旁通气流。事实上,这些解决方案虽然解决了进风温度问题,也会降低风扇的运行成本,但房间中旁通气流的体积是保持不变的。检测和纠正大家对于旁通气流的全面认识,可以更好的解决这个问题。

旁通气流的发展:

早在10年前, Uptime Institute就发表了第一篇关于旁通气流的文章。在由 Uptime Institute和Upsite Technologies的工程师引导的这项研究中,对高架地板中旁路开口与固定开孔的比例进行量化(例如:风口地板等)。旁路气流最早被提出就是以高架地板上的未经管理的各种开口作为研究领域的。虽然这些开口会产生旁通气流,但它们并不是造成旁通气流的原因。

旁通气流是指从制冷单元出来的气流,没有通过IT设备就直接返回制冷单元的那部分气流。此外,将多次通过IT设备的气流定义为IT设备废气循环。对于数据中心内的气流,最理想的情况是所有由制冷单元出来的气流在返回之前,都正好一次通过IT设备。由制冷单元提供的任何大于IT设备消耗的气流,形成了旁通气流。

在最早的Uptime Institute研究表明,平均有60%的数据中心内的制冷量是通过未密封的电缆口以及设计过大的风口地板流失掉的。最近,Upsite Technologies针对45个数据中心进行的调研表明,平均48%的气流都通过未密封的电缆出口和开孔率过大的风口地板中流失出去的。这些统计数据显示在过去十年中,通过采用气流组织管理方案(AFM)解决数据中心气流问题之后的效果并没有预期好。因此,需要对气流组织(AFM)的基本原理有一个更全面、客观的了解。例如,在Upsite研究的的数据中心中,有很多已经采用通道气流遏制系统,却没有对地板下送风区域做好密封处理。

对旁通气流的一些误解

管理高架地板上的开口是十分必要的,因为经过冷却处理的气流只能是通过数据中心内的开口才会流失(风口地板或格栅风口板)。但是,对于管理高架高架地板开放区域到底有多少益处,却存在几个误区。

业内有一个普遍的误解:如果电缆出口被密封或者风口地板被适当的管理,旁通气流量就会减少。这有可能会发生,但事实上,在大部分数据中心都存在过剩的制冷量。这些过剩的制冷量产生的气流由于电缆出口被密封处理以及对风口地板的开孔率进行调节管理,会使旁通气流转移到冷通道。

下图中的箭头和数字表示数据中心内气流移动的数量与方向。为了大家看清楚,这张图简化机柜和冷却单元的数量,但是该比率可应用于具有许多冷却单元以及多列机柜的房间。

QQ图片20170317114250

图1: 典型气流量

图1显示没有对高架高架地板开放区域管理的典型的数据中心。制冷单元提供10个单元的冷却气流量。未密封的电缆出口共释放出6个单位的冷却气流量,并在冷通道的风口地板释放出4个单位的冷却气流量,这也就是意味着IT设备总共消耗了4个单位的冷却气流量。在这种情况下,风口地板释放出的气流量等于IT设备消耗的气流量。数据中心内唯一的旁通气流是从未密封的电缆出口处流失的气流。

QQ图片20170317114331

图2:密封高架高架地板后的气流

图2显示高架地板开放区域得到完全密封处理后的情况。

现在,从未密封的电缆出口流失出去的6个单位的气流也从冷通道中送风口出来。因此,来自制冷单元的10个单位的制冷量都送达到冷通道,但由于IT设备只需要4个单位的制冷量,所以剩下的6个单位的冷量作为旁通气流离开冷通道。该示例表明,改变制冷单元制冷量是改变机房内旁通气流量的方法之一。

还有一个误解是密封电缆出口和其它原因导致的旁通气流导致制冷单元回风温度升高,从而提高制冷单元使用效率。

如图所示,消除旁路气流方式之一是密封好高架地板上电缆开口;与此同时,这么做可以增加风口地板以及格栅风口地板送风量以及消除机柜内部热点,增加IT设备制冷量,但回风温度却不变。制冷单元的回风温度,以及它的效率和容制冷量,都取决于送风量、热负荷,以及自动恒温恒湿装置下设定的回风温度。

因此,提高制冷单元回风温度设定值是提高制冷单元效率和制冷量以及实现气流组织管理成果的全部益处的唯一方法。

许多数据中心已经实施了气流组织管理方案,并看到了如下优势:

l 提高IT机柜进风温度

l 提高IT设备可靠性

l 增加风口地板送风量

然而,这些数据中心中的大部分还没有改变制冷单元回风温度的设定值,降低风扇转速,或关闭过量的制冷单元。他们并没有意识到这么做带来的潜在的价值:

l 提高制冷单元效率

l 增加制冷单的制冷量

l 降低运营费用

改善旁通气流的四个步骤:

通过全面了解旁通气流界定和来源,数据中心管理人员可以从中发现增加制冷量和降低运营成本的重要机会。这可以归结为四个步骤。

备注:为确保IT设备不受高温影响而导致宕机,作为优化制冷系统的一部分,在对IT设备实时监控的同时,也要重视对气流组织以及制冷系统的基础设施的优化,从而更有效的保证设备正常运行。数据中心制冷量系数(CCF)取决于许多因素,例如(但不限于以下因素):制冷单元规格(尺寸)、制冷单元数量和位置、数据中心整体规划、热负荷分配、高架高架地板高度及顶板高度。

第一步:

测量数据中心内CCF值(冷却容量系数),获得改善制冷系统的第一手数据。如果制冷单元具有定速风扇,或风扇正全速运行,那么CCF就是数据中心内旁通气流值。CCF值等于总制冷量(千瓦)除以110%IT关键负载(千瓦)。一旦明确数据中心CCF值,就可以采取适当方式对制冷系统进行调整,改善气流组织。

第二步:

改善气流组织,做好三件事。这三件事,用英文来讲,就是三个R,:1.Raised floor(提高高架地板高度),2.Rack(机柜气流管理),3.然后Row(行间气流管理)。(建议按此顺序改造气流组织)

⒈管理高架地板板上、地板下开放区域:密封电缆出口和对地板开孔位置进行处理;检查地板下周围墙壁是否有未做密封处理的开孔或穿洞;密封这些穿孔需用防火材料。

⒉对IT机柜内进风口位置(机柜正面)垂直面的所有开放区域进行密封处理。为机柜安装盲板,对机柜底部空隙做好密封,安装机柜侧板。

⒊填充未放置IT机柜的空间或机柜间的空隙。当机柜密度足够高或者想要得到更高效率的时候,封闭冷通道/热通道一种选择。

第三步

接下来,改变制冷基础设施

l 提高制冷单元回风温度设定值。将设定值提高,不超过IT设备进风温度的高值。

l 关闭过剩的制冷单元,或降低变频制冷单元的风扇转速,如风扇不是变频的,建议更换为变频风扇……

第四步

最后,确认以上步骤是否都做到,确认制冷系统已进行优化。

在对制冷单元重新设定进风温度、回风温度后,可能需要调节风口地板以及格栅风口地板的数量和位置, 从而使IT设备进风温度低。

管理气流组织最终目标是尽可能提高制冷单元温度设定值,尽可能运行更少的制冷单元,或能降低风扇转速,而使IT设备的进风温度超过高值。请记住,对制冷单元设置冗余是很必要的,以便当制冷单元出现故障时,有足够的制冷量来支持负载。配置多少冗余制冷单元的数量取决于很多因素,比如:高架地板的高度,地板下面的障碍物,机柜的布置,气流组织管理的有效性,数据中心负载的变化,房间规格等。

此外,通过气流组织管理方案气流得到改善后,将可能提高制冷单元温度设定值或者进一步降低风扇转速。例如,彻底检查和调整风口地板的数量和位置后,可以将温度设定值提高几度。接着,再安装盲板,等填充机柜行间空隙后,可将制冷单元温度设定值再提高几度。

结论

基于目前数据中心冗余制冷容量的数据,运营商和管理人员经常面临着挑战,要量化数据中心内旁通气流和制冷量过剩的问题。事实上,旁通气流问题在整个行业是十分普遍的。

解决方案的范围从密封垫圈和盲板到封闭冷、热通道方案都是必要的改善措施,但是,为了通过提高制冷量中实现更大的经济效益,需要在制冷基础设施中进行改变:更改制冷单元温度设定值、降低风扇转速或关闭过剩的制冷单元。

如果旁通气流没有被看作数据中心高架地板中的微不足道的打洞或者开孔的话,它应该能够被业界更多专业人士认同,同时会有机会会被量化,从而能更好为改善制冷系统,降低运营费用做出贡献。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56