高密度数据中心发展至今,迫切需要解决的问题是降低PUE值。随着电子信息机房IT设备和供配电系统的高度集成化,机房散热量日渐趋高,必须要有强大的制冷系统,来维持机房的环境温度能保持在一个合理范围内。从图1中可以看出,电力在数据中心的消耗仅有33%供给了IT负荷,散热负荷却高达63%,也就是说,散热负荷已经远远超过了IT设备的负荷。这意味着,降低IT设备的发热量,可相应地降低散热负荷,也就是降低了用于制冷设备的电力,这对于降低PUE值是一个关键的因素。

2017378265069207

在现代电子信息机房中,空调负荷主要来自计算机主机设备、外部辅助设备的发热量,这些发热量大约占机房空调总热量的80%~95%,而在计算机主设备(包括服务器、存储、网络等)中,服务器所产生的热量约占到80%左右。可见,降低服务器的发热量,从而降低制冷系统的能耗是至关重要的。

目前,很多数据中心的服务器散热采用风冷技术,即用空气来冷却。空气并不是很好的冷媒。若采用液冷,其冷却效果比空气强1000~3000倍。风冷所不能解决的高能耗、低性能的问题,用液冷技术却可以得到显著的改善。服务器也因此实现了高密度、低噪音、低传热温差、全年自然冷却的效果。

液冷是利用工作流体作为热量传输的媒介,将热量由热区传递到远处再进行冷却。由于液体比空气的比热大很多,散热速度也远远大于空气,因此制冷效率远高于风冷散热,由于省去了风扇,也能达到降低噪音的效果。

液冷服务器不用压缩机制冷,使得整个系统全年PUE值下降到1.2以下并非难事,同时服务器CPU可超频运行,计算性能可提高12%.国外研究表明,CPU核温每提高10℃,可靠性降低一半。而液冷服务器的CPU核温比风冷极限温度可低20~30℃,可靠性必将大大提高。

1 液冷服务器的原理

制冷系统的制冷原理主要在于冷量传输的途径差异。冷媒的全热为显热与潜热之和。湿热是液体在加热或冷却过程中,温度升高或降低而不改变其原有相态,所需吸收或放出的热量时,不发生相变;而潜热是相变潜热的简称,为单位质量的物质在等温等压情况下,从一个相变化到另一个相时,所吸收或放出的热量。这是物体在固、液、气三相之间以及不同的固相之间相互转变时具有的特点之一,固、液之间的潜热称为熔解热或凝固热,液、气之间的潜热称为汽化热或凝结热,而固、气之间的潜热称为升华热或凝华热。

对于超高功率密度的数据中心来说,风冷技术难以实现对系统的高效散热,而水冷或液冷有两大好处:一是把冷却剂直接导向热源,而不是像风冷那样间接制冷;二是和风冷相比,每单位体积所传输的热量(散热效率)比风冷高几千倍。

由于液体的比热容大,能吸收大量的热量而保持温度不会有明显的变化,液冷系统中CPU的温度能够得到很好的控制,突发的操作不会引起CPU内部温度瞬间大幅度的变化,因此能允许CPU进行超频工作,从而节省服务器的数量。此外,由于泵的噪声很小,整个液冷系统的噪音比与风冷系统小很多,可达到“静音机房”的效果。此外,由于省掉了风扇及机房专用空调系统,因此节省了电费和耗能。

该技术可广泛应用于超高功率密度数据中心中服务器的散热,为数据中心的散热问题提供一个优异的解决方案。

2017378271799785

值得一提的是,服务器的液冷技术并不需要昂贵的水冷机组,在减少总体拥有成本的同时,显著提高了数据中心的能源效率,而且做到了绿色环保。它还可以控制运营成本,使初始投资实现快速回报。这在那些高电力成本、高运营成本的数据中心显得尤其重要。

使用液冷系统的节能效果十分明显。服务器前部必须要保持25℃以下才能稳定工作,精密空调想要保持这个温度,必须在空调冷风口达到18~20℃,而液冷媒只要能达到20~25℃就可以。另一方面,远程制冷的效率比较低,而液冷媒在相对封闭的运行环境中,效率较高。

形象地理解,液冷设备与精密空调的区别,就像冰箱制冷与冷库制冷的区别。对机房来说,液冷媒将每个机柜包装成为一个“冰箱”,而精密空调则把整个机房制冷视为一个“冷库”,其能耗的差别不言而喻。使用液冷技术节能的效果不仅仅在于制冷方面,液冷技术有一个与众不同的系统,叫Freecooling(自然冷却系统)。液冷媒的进口温度需要低于15℃,而当环境温度低于15℃时,就可以不需要通过循环制冷来制冷液体,仅仅用自然冷量制冷即可。这一切都是自动调节的,不需要人工操作。使用液冷系统的节能效果十分明显。

2 液冷服务器的种类

液冷服务器的种类一般是按采用的模式和选用的冷媒来区分的。

按照系统模式,液冷服务器可分为直接冷却和间接冷却两大类;按照工作介质的不同,可分为水冷和其它制冷剂冷却,制冷剂除水以外,还有变压器油、矿物油、19.8%的乙二醇溶液、13.6%NaC的盐水、FC-75、Coolanol45、二甲烷饱和溶液等;按照是否发生相变,可分为温差换热(利用制冷剂的温升来带走热量)和相变换热(利用制冷剂的气化潜热来带走热量)。

(1)间接液冷服务器

间接液冷服务器又叫冷板式液冷服务器,其原理图如图3所示。如图中所示,冷媒与被冷却对象分离,并不直接接触,而是通过液冷板等高效热传导部件将被冷却对象的热量传递到冷媒中。对于原有的风冷方式来说,仅需将原风冷散热片替换为液冷散热片,并将冷媒管路引出机箱即可。在间接冷却方式中,冷媒有其自身通路,并不与电子器件直接接触,因此只要液体管路密封性好、冷媒不泄漏,那么系统对冷媒种类的要求较低,多种冷媒均可实现其功能。

2017378274750682

缺点是由于增加了传热过程热阻,传热温差增大,制冷效果逊于直接冷却式,且需要额外安装风扇对机房的其他元器件进行散热。

(2)直接液冷服务器

直接液冷服务器又叫浸没式液冷服务器,其原理图如图4所示。如图中所示,发热元器件与冷媒直接接触,即将服务器主板、CPU、内存等发热量大的元器件完全浸没在冷媒中。由于冷却液与被冷却对象直接接触,散热效果更佳,能一次性解决全部元器件的散热问题,无须额外配置风扇、散热片等。但此系统对原有的风冷系统有较大改动,需制作密封舱体用来盛放冷媒。另外,对冷媒的要求较高,需具备绝缘性好(不导电)、无毒无害、无腐蚀性等物理化学特性。

201737828345765

直接冷却式能解决更高热流密度的散热问题。直接冷却式是利用液体的温差或相变将热量直接带走,减少了传热过程的热阻,冷却效率更高。而且,冷却制冷剂蒸汽只需40℃的进水,由于全国很多地方全年温度都是在40℃以下,因此可实现全年自然冷却,PUE值可降至1.05左右。

服务器设计者和数据中心运营商主要关注的问题是数据中心系统的稳定性。然而,在液体冷却系统中,一个接头的失效就会导致冷却液无法自动替补供应。因此,对机械冲击的抵抗能力及可靠性是液体冷却系统快速插拔接头的重要特征。服务器设计者就需要构造优良、锁紧机构简单、制作材料耐用并兼容的快速插拔接头。这种接头必须能够长期保持连接状态,但在断开进行维护时快速接头内集成的阀门能够迅速动作,以避免冷却液的溢出。使得密封件应当与冷却液兼容,以避免膨胀、收缩或者变形。

在使用液体冷却系统时,为了更好地保障电子设备周围设施的安全性与可靠性,数据中心运营商需要采用坚固耐用且保证无滴漏的连接设备。快速接头连接后的多重密封和无密封摩擦功能,能够保证液体冷却设备即使在长时间处于连接状态和压力的情况下,在断开时也能保证无溢漏,大大提高了液体冷却系统的安全性和可靠性。

此外,简单易用、设计直观的快速插拔接头可以满足液体冷却系统操作及维护的便利性。

比如,彩色编码的设计为冷却管理提供即时视觉上的辨别,这种易用且直观的设计更加方便技术人员使用和维护。产品配有高质量阀门的一键连接或扭锁式接头,操作简单快速,并且在断开时阀门完好闭合。对于惯于连接和断开以太网和电源电缆的技术人员而言,直观设计的快速插拔接头更方便使用。

3 国内外服务器液冷技术发展现状

(1)国内服务器液冷技术发展现状

目前国内知名的多个设备、软件厂商推出了液冷服务器系统产品,包括曙光、华为、神威蓝光等。

曙光推出的TC4600E-LP液冷服务器是以原有风冷型刀片为原型,进行了液冷改造设计,除去CPU和显卡的风冷式散热器,改造为液冷冷板。图5为TC4600E-LP液冷服务器的前、后视图。

2017378282199917

TC4600E-LP采用CPU冷板技术以及先进的防泄漏技术,具有以下优越的性能:

①风扇功耗降低70%,具有更优的整机效率;

②CPU可超频运行,计算性能提高12%;

③CPU核温可降低30℃,平均无故障工作时间延长50%,具有更高的可靠性;

④噪声比风冷板机型低20dB(A),具有更低的噪音指数;

⑤由于处理器的热量通过水冷带走,不需要安装大量的机房专用精密空调;

⑥液冷系统采用30℃的常温进水,可以实现全年自然冷却,PUE值轻松降至1.2以下。

华为公司的液冷刀片服务器采用高集成LCS(Liquid Cooling System)设计,在1个标准的42U机柜中通过部署三台装配有高性能冷板(CH121 CH140刀片服务器)的E9000融合架构刀片服务器,即在部署96个2路刀片服务器的情况下,对86%的器件进行液体冷却,相比传统的风冷散热设计可实现50%~60%的能耗降低,有助于将数据中心PUE值降至1.2以下。华为公司间接液冷服务器如图6所示。

2017378284382387

神威蓝光公司的间接液冷服务器中的冷却用水是内部封闭循环,是来自矿泉水厂处理过的纯水。中间是铝制液冷散热板。神威蓝光公司的间接液冷服务器的优势是集成度高,水冷散热高效,可在一个机柜内存放更多的CPU,仅依靠9个运算机柜就达到了很高的运算能力。神威蓝光间接液冷服务器如图7所示。

2017378285387693

目前国内有很多企业已经开始研发液冷服务器产品,但截至目前,大部分企业使用液冷技术多采用纯水作为冷媒。众所周知,含杂质的水是电的良导体,一旦冷媒泄漏,与主板上的尘埃等杂质混合,后果不堪设想。且选用水作为冷媒,是利用水的温升带走发热元件的热量,只利用了水的显热,并没有发挥其全部功效,还有很大的潜能可以发挥。

(2) 国外液冷服务器的现状

国外液冷服务器的用户主要还是大型数据中心和超级计算中心,已经有一些用户开始使用液冷服务器。比如美国国家安全局、美国空军、CGG、ORANGE、VIENNA科学计算集群、日本东京工业大学已经使用了Green Revolution Cooling的浸没式液冷技术,美国AFRL、ERDL、法国TUTAL、欧洲AWE等使用了SGI的液冷服务器,德国LRZ已经使用了联想(原IBM)的Next Scalen x360 M5冷板式液冷服务器。

IBM的新SuperMUC超级计算机中心(LRZ)Super MUC与IBM xiData Plex均采用了水冷技术,即采用40℃的温水作为IT设备制冷的冷媒工质。比起普通的风冷系统,这种水冷系统的散热效率高4000倍,能耗也大幅度降低。除此之外,其产生的热水可以给莱布尼兹超级计算机中心园区的其他生活建筑供热,每年可节约125万美元。IBM间接液冷服务器如图8所示。

2017378292056577

Green Revolution Cooling推出的直接式液冷系统是把服务器浸没在一种矿物油中进行降温,浸没其中的戴尔R730机架服务器的CPU温度为30℃左右。Green Revolution Cooling直接式液冷系统如图9所示。

2017378293710783

Asetek的液冷机柜是在室外侧充分利用室外冷源,实现自然冷却,节约数据中心的运维成本。模块化设计为数据中心提供了大的可扩展性。以1U服务器(功耗为500W,其中CPU及内存功耗为400W)为例,80%(400W)的热负荷来自于CPU及内存,采用液冷散热,剩余20%(100W)的热负荷采用风冷散热。PUE值由1.61下降至1.08,单机柜每年节省电费7784美元,能使数据中心节能50%,密度增加2.5倍。Asetek的液冷机柜如图10所示。

2017378294677060

4 结束语

按照美国IDC公司的预测,移动产品和数据等的总量,今后还会持续高速增长,数据中心必须要高密度配置服务器。为了应对这样的变化,制冷技术也需要随之改变。实际上,IDC于2016年3月,以美国的各类数据中心的运营商为对象实施的问卷调查中,有高达42%的受访者表示,其公司大的数据中心采用了液冷技术。

对于单台服务器而言,使用液冷服务器能高效准确制冷,节能降耗,降低噪音。而且由于液体的比热容大,能吸收大量的热量而自身温度不会明显变化,使得CPU在突发操作时不会引起内部温度瞬间大幅度变化,因此允许CPU超频工作,提高了服务器的使用效率和性能。

对于机柜而言,由于省掉了机房专用空调,因而节能、降噪。而且由于液冷服务器的冷却能力优良,能在单位空间内布置更多的刀片服务器,提高热流密度,因此节省占地面积。

对于数据中心而言,虽然增加了泵和工作液体循环系统,但是省掉了整个空调系统以及基础设施层,也无须地板下送风和冷热通道封闭技术,能节省更多的成本。且能在有限的空间内容纳更多的服务器,从而得到更高的效率。此外,由于泵的噪声很小,整个液冷系统的噪音相比于风冷系统要小得多,可达到“静音机房”的效果。

此外,液冷服务器可以不受海拔和地域的限制,在任何地方均能正常工作。而机房专用空调系统则不同,在不同纬度和海拔的地区,必须考虑当地的情况进行设计调整。

因此,液冷服务器可广泛应用于超级计算机和大型服务器的散热,为大规模计算中心和数据中心的散热问题提供优异的解决方案,从而大大降低了PUE值。

目前,冷板式的液冷技术已经比较成熟,具备了产业化的可行性。但对于更具革命性的浸没式液冷技术,仍然处于发展初期。据了解,液冷服务器的用户主要还是大型数据中心和超级计算中心,这些用户对于高密度扩展、绿色节能、机房静音的需求比较迫切,已经有一些用户开始使用液冷服务器,不过对于企业级应用,无论是普通的服务器,还是大型数据中心,液冷技术的普及之路还刚开始。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56