管路连接的特殊设计和质量检测都必须在前期完成,保证后期维护的便捷和服务器的安全可靠。

数据显示,我国机房的PUE值(电源使用效率)较高,平均在2.5以上,除了电脑所耗的44%,仅制冷系统一项就占了38%的总电力。因此,运营商们为了填补机房制冷这一能耗黑洞煞费苦心。大数据与超级计算机行业巨头都纷纷采用或正在测试多种不同的机房制冷方法,包括干脆给整个机房搬家,建在如冰岛或我国东北部这些气温相对低的地方。全浸没液冷、微流体冷却、湖水制冷等技术也都备受瞩目。

机房液冷管路连接设计三大要点

 

然而对大多数数据中心运营者来说,这些新兴技术还是存在很多的局限性。在这些技术能够普及之前,常规的液冷仍然是最实际的机房制冷节能方式。一方面,水冷的制冷效率比目前大多数数据中心采用的风冷系统要高很多。另一方面,液冷系统的后期维护一般来说只需要补充一些冷却液,所以整个系统的稳定主要还是依靠管路本身的可靠性和安全性。也就是说,只要管路与连接器的设计和质量检测都能在前期得到完善,便可大大减少数据中心后期维护中所遇到的问题。

在机房制冷系统升级的一开始,运营商就应该开始考虑管路接头这一关键而又脆弱的一环。接头的连接和断开是一个重要环节,因为不合格的接头极有可能在实际操作和反复使用的过程中产生冷却液泄漏,从而导致电子部件受损和频繁的维修清理,最终造成资源的浪费。而设计不合理的接头则无法与数据中心运维的需求而契合,带来后期不必要的麻烦。运营商需要在前期完成对接头的耐压耐化学腐蚀测试,以及在样机测试中观察接头的实际性能,并基于机房在构架和空间上的局限性来考虑定制设计。

数据中心管路连接器的设计考虑重点

1. 材料选择

管路连接器材料选择需要考虑两个方面:耐化学腐蚀性和性价比。在耐化学腐蚀方面,管路中的介质需要与接头的材料匹配,从而长久性地保护设施设备,达到可持续运营。在一些案例中,机房内原先可能会有一些不适合液冷的材料,比如铝制冷板和黄铜接头搭配使用等。这时,接头主体便可以使用镀铬、不锈钢、玻璃纤维填充聚丙烯等抗腐蚀材料来代替,而具有复杂几何设计的截止阀则可采用耐温范围宽、抗化学性强的聚砜来制造。考虑到液冷用接头所需的高度密封性能,接头也可设计双层密封、配备低摩擦 O 型环,并采用三元乙丙橡胶来达到良好的密封性和耐化学性,进一步保证了液冷系统的稳定。

从性价比的角度出发,数据中心运营商们大多习惯在液冷系统中使用主体为金属的定制接头,因为其耐高温高压、流量大、坚固耐磨损等特质符合数据中心对设备模块连接活动件的品质要求。金属定制接头使用机械加工,可以在短时间内设计制造出有着不同外部尺寸、螺纹规格、端口形式、流量的连接器,以此满足不同数据中心的定制要求。而实际上, 在中低压环境下,高性能塑料也不失为性价比极高的选择。塑料材质轻巧、稳定,聚砜等材料在耐化学性和坚固耐磨损方面均不亚于金属。模塑工艺制成的连接器也能实现一体式端头设计,使其装配时间短、安装快捷,因而达到提高效率和降低维护成本的目的。

2. 优化操作

液冷系统往往十分庞大,因此系统的模块化就能给维护带来无比的便利,只需断开出问题的模块进行维护。使用快速和耐反复插拔的连接器不但能实现模块化,还能通过简化操作来提高工作人员效率,使设备的安装和维护更加便捷。为了帮助工作人员实现单手操作,接头需配有符合人体工学的拇指键,并在断开时自动弹开,无需传统的球阀关闭装置,增加维护效率。

为了进一步优化操作,接头还可在制造过程中加入不同颜色的组件进行标识,为维护人员提供明显可视化提示,大大降低因连接错误而导致的系统损坏和停机时间。接头也可以用防滑的软感塑料加以包覆,既方便操作又能增加抗冲击性,延长接头的使用寿命。

另一个需要考虑的重要环节是机房留给水冷模块的空间。接头可以通过特殊设计来保证所有的拇指键都能朝向一个方向, 既美观, 又最大限度地满足了空间有限的要求, 且不影响操作。

3. 安全稳定

数据中心液冷管路所面临的最大挑战之一就是要确保没有冷却液滴漏。传统接头因在接口具有弹簧等突出的部件和接头凹槽,使其无法在断开时保持无液体残留。若想彻底避免残留冷却液滴漏而引起的服务器机架故障,接头就需具有平整的断面和外部结构,并通过高强度的测试达到耐高频率反复插拔的品质。接头内集成的阀门需要采用特定的设计——比如与锥形阀相比,无滴漏阀门的迅速动作能更有效地防止液体滴漏。拥有一定轴线容差的阀门也能大大提升接头性能,使阀门在未完全连接的情况下依然保持液体无溢漏地全流通,从而保证设备的有效运行,保护电子设备和数据。

与锥形阀相比,端面等高阀能更有效地防止液体泄漏

与锥形阀相比,端面等高阀能更有效地防止液体泄漏

稳定的管路连接也需要考虑服务器在运作中所产生的震动。运营商们可能会出于习惯而选择常规的国标螺纹,但这种螺纹不能保证接头在持续震动的环境下不会松动脱落。我们可以采用通常用于工业和汽车行业的SAE螺纹来定制接头,大幅减少接头脱落的风险。

专为液体冷却而设计的接头能实现无滴漏快速插拔操作

专为液体冷却而设计的接头能实现无滴漏快速插拔操作

在水冷系统中,我们需要用管道把液体从A点输送到B点。这听起来似乎很简单,但实际上,输送的过程难免会因为介质的兼容性、系统内的压力、以及对防泄漏等问题的需求而复杂化。接头是液体输送系统最关键而又脆弱的一环,因为一个不合格的接头极有可能在实际操作和反复使用的过程中产生泄漏或导致操作失误,造成资源的浪费和安全性的缺失。为了避免这种情况的发生,冷却液输送系统中的接头不仅需要卓越的机动设计,也需要使用最适合的材质,实现真正安全与稳定的数据中心。

作者简介:

曹明, CPC (Colder Products Company)中国区销售和市场发展经理,毕业于合肥工业大学,拥有材料科学与工程专业学士学位,在国内流体处理领域有超过 15 年的市场经验,并凭借在材料和流体管理方面的知识开发更适合中国市场的应用。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2017-11-16 17:13:46
国内资讯 保护软件定义数据中心的三大关键考虑因素
软件定义的数据中心(SDDC)可以说为当下的企业组织IT提供了巨大的承诺。在SDDC内部,服务器虚拟化所带来的优势已然扩展到了存储和网络领域,进而使得企业数据中心的整个基 <详情>
2017-11-16 09:24:00
国内资讯 京东11·11:撬动数据中心的支点——京东阿基米德
今年11.11,京东数据中心操作系统(JDOS)阿基米德已经全面接管了应用资源调度。每日调度百万台容器实例运转,每日为离线计算提供了多达3000万核。小时的计算资源,SLA履约 <详情>
2017-11-15 16:50:00
数据中心节能 浸没液冷之后 阿里再推内置锂电池服务器
双十一购物狂欢节从2009年开始至今,每年巨大成交量的背后有数十万台服务器进行复杂的运算,处理着数亿次的交易。作为阿里巴巴集团的基础设施,数据中心,服务器,网络承担 <详情>
2017-11-15 09:59:00
交换存储 什么是数据中心的双层存储系统?
大多数数据中心至少拥有五到六个不同供应商的不同存储系统,这既提高了存储成本,又加大了管理复杂性。而一个潜在的解决方案是全闪存数据中心,其中所有数据都移动到一个单 <详情>
2017-11-15 09:40:37
机房建设 数据中心从芯出发
数据中心是信息处理的集中场所,是由大量服务器、网络和存储等设备搭建起来的强大数据处理系统。虽然现在云计算、大数据、人工智能等这些软件虚拟化的技术在数据中心里大行 <详情>