数据中心节能降耗应从两个方面入手,第一是减少数据中心IT设备对电能的需求,降低其能耗和发热量,第二是提高供电和制冷系统的效率,减少不必要的浪费。今天我们一起讨论下数据中心制冷系统的节能。

数据中心机房单位面积能耗由10年前的400~500W/m2迅速升高到目前的800~1000W/m2,而且还呈现不断上升的趋势。尤其是目前高密度IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为10kW左右,现在最新的刀片式服务器机架功率高达30kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。

2

 

1、针对数据中心机房IT设备用电功耗及机房散热要求。应采用相对应的机房制冷系统解决方案和机房散热方案:

1)当机房机柜功耗在3~6kW时,建议采用风冷或水冷空调系统,采用面对面,背对背的冷热通道分隔的机房气流组织进行规划和建设。在当地气候允许的条件下,可考虑能效比较高的水冷空调系统和自然风冷冷却方案。当机房局部产生热岛时,可使用有气流导向的变风量送风地板,增强机房热岛区的局部散热。

2)当机房机柜功耗在8~15kW时,建议采用封闭冷通道气流组织进行规划,采用风冷或者水冷空调系统。在机房局部功率产生热岛时,可使用EC风机与送风地板,增强机房热岛区的局部散热;在机房局部产生高功率热岛时,使用机房行间空调封闭局部进行内部增强快速散热。

3)当机房机柜功耗在15~25kW时,建议采用机房行间空调,机柜封闭增强机房热岛区的局部散热,有条件可采用冷板式机柜,柜内热空气与冷却水在柜内进行热交换的冷却技术。

4)当机房功率大于25kW时,考虑更加高效的散热冷却技术,采用液冷技术,高密度服务器高度热品质冷却系统。

从以上方案,我们可以看出,对于传统的低功率机柜,利用风冷空调制冷技术即可满足其运行条件。当功率大于10kW时,需采用封闭通道并采用行间空调制冷。当功率大于15kW时,需采用冷板式制冷技术满足机柜运行需要。当功率大于25kW时,考虑更加散热高效的浸没式液冷技术。

云数据中心发展趋势为大规模、高密度机房,传统的空调制冷方式将很难满足未来的数据中心运行要求。如何更加高效节能,我们对比一下上述液冷技术路线与传统技术性能PUE。

2、不同冷却技术能耗对比

对比传统空气冷却、冷板式、浸没式液冷,不考虑外界环境因素变化,三种技术对比各有千秋。

总结

分析三种技术运行工况,制冷系统制冷能耗总体不断降低。冷板式对于传统风冷冷却技术能够有效大幅度降低能耗,浸没式液冷能够更进一步节能降耗,PUE可以达到1.09。随着国内对数据中心节能指标控制越加严格,PUE有更进一步降低的趋势,有此可见,浸没式液冷在高功率、大规模数据中心节能应用存在广阔的前景。随着技术不断发展,数据中心制冷系统将会更加高效节能。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2020-09-11 13:31:52
国内资讯 浅析国内数据中心市场的七大发展趋势
数据中心机柜增长的关键驱动因素是持续的网络流量长和企业持续的外包需求。越来越多的中小型零售、互联网企业加大公有云布局,国内云服务商业务增速显著,未来三年持续加大 <详情>
2020-09-10 10:12:17
市场情报 紧跟新基建步伐 鞍山云数助力东北地区数字经济建设
顺应时代的发展,在东北地区数字经济建设的大环境下,为加快信息化建设,鞍山市政府招商引入了鞍山市云数科技发展有限公司作为重点互联网科技企业。在2016年,鞍山云数投资 <详情>
2020-09-10 09:45:06
国内资讯 科华恒盛签约建设厦门新经济产业园IDC项目
该项目总规划建筑面积约3.2万平方米,预计建设机柜数约5000个。 <详情>
2020-09-10 09:21:26
国内资讯 阿里云数据中心落户杭州临平新城 总投资约100亿
9月8日,杭州余杭区临平新城开发建设管委会发布公示,正式公布阿里云数据中心和菜鸟联盟秘书处在临平新城西大门的选址。 <详情>
2020-09-09 16:35:23
国内资讯 ODCC 2020开放数据中心峰会亮点剧透之柴发配套系统预制化
柴发配套系统预制化项目尝试将柴发的预制化从主机扩展到配套系统,提高柴发整体预制化程度,有助于快速交付部署。 <详情>