随着IT技术的不断发展,对数据的处理速度、处理能力要求越来越高。同时随着科技的不断创新,体积更小、处理能力越快、功能越强的高功率密度机架服务器、刀片服务器、存储服务器、大功率小机等应运而生。这些高性能的服务器却引发了另外一个明显的问题就是单位面积的发热量急剧上升,因此经常会造成机房局部发热的高热密度现象。(请参看:数据中心高热密度设备散热全攻略)

本文以某计算机中心为例,概述高热密度数据中心的空调系统设计。

某超级计算中心的数据中心的高热密度计算机机房面积近200m2,其中高性能计算机的功耗大达到每机柜23kW,总计有40台机柜。机房内安装架空地板,但空间紧张。

1、 空调方案选定

根据机房场地条件和计算机系统发热的情况,采用高热密度封闭机柜最为合适。这种形式的机柜完全封闭,制冷循环在机柜内完成。每台机柜与机房环境基本独立,可迅速、准确控制每个机柜内环境,无须对机房整体空间制冷调节,减少了制冷能量在机房内的浪费。

高热密度封闭机柜采用机柜内直接制冷的方式,机柜内设备运行发出的热量通过机柜内空气循环,经机柜内热交换器,通过水冷循环回路,传递到机柜外的冷冻水系统。机房内冷却水系统的热量通过中间热交换单元送到冷水机组。

由于封闭式机柜需要冷却水将热量带出机柜,需要将冷却水引入机房,带来了漏水和结露的隐患。因此,系统需要的冷却水由一个中间热交换单元提供,确保机房内的冷却水的温度不低于12℃,高于机房的露点温度,防止结露的危险,同时保证冷冻水的流量稳定,确保末端机柜内空气温度的精确控制。在机房工程和机房管理上,必须防漏水措施和预警管理。

2、 制冷系统计算和设备选型

机房中28台机柜功率密度为23kW,12台机柜功率密度为12kW,可计算机房设备的大总发热量为788kW.

根据机房场地条件,参考《电子信息系统机房设计规范》(GB50174-2008)的A级机房的要求:

(1) 选择40台某公司25kW制冷量的封闭式水冷机柜为高性能计算机设备撒热制冷,并有足够裕量。

(2) 热交换单元系统总制冷量应为1.1×788=867kW(1.1为裕量系数),因而选10台100kW热交换单元(CTU)进行冷冻水转换,保证机房内谁系统的安全性。10台热交换单元分成两组,每组5台100kW热交换单元,承担一半负荷,即14×23+6×12=394W,4主1备运行。

(3) 冷水机组系统总制冷量为1.1乘以967=1040kW,因而选某品牌3台520kW左右的风冷冷水机组,2主1备运行。

冷水机组和热交换单元之间的水系统采用二级泵系统结构:由一次泵、冷水机组和旁通管组成的管路成为一次环路;由二次泵、热交换单元系统和旁通管组成的管路成为二次环路,以保持冷水机组一次环路的定流量运行和用户侧二次环路的便流量运行,节省输送能耗。

热交换单元和封闭式水冷机柜之间的水系统采用定量流量系统。由于水冷机柜水冷热交换器压力将较大,因而采用异程式结构。

本篇没有详述水系统的水力计算。根据水力计算结果可选取管径和水泵型号。

3、 制冷系统布置

封闭式水冷机柜布置在计算机机房,两组热交换单元系统布置在计算机机房侧的空调机房,冷水机组系统布置在冷水机房。封闭式水冷机柜和热交换单元系统之间的水管布置在机房地板下,地板下的楼层面做保温、防尘和防空调结露水处理。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56