中国IDC圈8月22日报道:绿色数据中心建设涉及到很多方面,不仅仅是平时我们平时所熟知的服务器,还包括整体建筑、机柜、空调、UPS等设备以及应用系统和管理效率等。较之以上几个方面,我们大致可以把绿色数据中心建设分成两个方面,物理环境层和应用管理层。

物理环境层面主要包括整体建筑、机柜、空调、UPS等方面,传统数据中心由于设计原因,大多存在设备耗电量过大;散热与冷却系统功效不足;机房布线杂乱和电缆过细等因素。

数据中心可以占用一个房间、一个和多个楼层或整栋建筑,大部分都是服务器,一般安装在19英寸机柜中,通常布置成一排,每排机柜之间是人行通道,这样人们想要操作机柜前方和后方都很方便,服务器的尺寸大小不同,从1U到大型独立机柜的都有,有些设备如大型机和存储设备本身就是一个柜状物体。一些非常大的数据中心还可能会用到“集装箱”,仅每个集装箱就可以装下1000台甚至更多服务器,当需要维修和升级时,整个集装箱将被替换,而不是修复独立的服务器。

空调用来控制数据中心的温度和湿度,制冷与空调工程协会的“数据处理环境热准则”建议温度范围为20-25℃(68-75℉),湿度范围为40-55%,适宜数据中心环境的大露点温度是17℃。在数据中心电源会加热空气,除非热量被排除出去,否则环境温度就会上升,导致电子设备失灵。通过控制空气温度,服务器组件能够保持制造商规定的温度/湿度范围内。空调系统通过冷却室内空气下降到露点帮助控制湿度,湿度太大,水可能在内部部件上开始凝结。如果在干燥的环境中,辅助加湿系统可以添加水蒸气,因为如果湿度太低,可能导致静电放电问题,可能会损坏元器件。相比传统设计,地下数据中心的计算机设备在保持冷却的同时消耗的电能可能更少。

现代数据中心尝试使用更经济的冷却系统,比如它们使用外部空气保持数据中心冷却。美国华盛顿州现在有几个数据中心一年中有11个月都是使用外部空气冷却所有的服务器。它们不使用制冷空调,这样可以节约数百万美元的电费。

由一个或多个不间断电源(UPS)和/或柴油发电机组成备用电源。

为了避免出现单点故障,所有电力系统,包括备用电源都是全冗余的。对于关键服务器来说,要同时连接到两个电源,以实现N+1冗余系统的可靠性。静态开关有时用来确保在发生电力故障时瞬间从一个电源切换到另一个电源。

数据中心的地板相对瓷砖地板要提升60厘米(2英尺),这个高度现在变得更高了,是80-100厘米,以提供更好的气流均匀分布。这样空调系统可以把冷空气也灌到地板下,同时也为地下电力线布线提供更充足的空间,现代数据中心的数据电缆通常是经由高架电缆盘铺设的,但仍然有些人建议出于安全考虑还是应将数据线铺设到地板下,并考虑增加冷却系统。小型数据中心里没有提升的地板可以不用防静电地板。计算机机柜往往被组织到一个热通道中,以便使空气流通效率好。

数据中心的防火系统包括无源和有源设计,以及防火行动执行计划。通常会安装烟雾探测器,在燃烧产生明火之前能够提前发现火警,在火势增大之前可以截断电源,使用灭火器手动灭火。在数据中心是不能使用自动喷水灭火装置的,因为电子元器件遇水后通常会发生故障,特别是电源未截断的情况下使用水灭火情况会变得更糟。即使安装了自动喷水灭火系统,清洁气体灭火系统也应早于自动喷水灭火系统启动。在数据中心还应该安装防火墙,这样可以将火源控制在局部范围内,即便是发生火灾也可以将损失减到最低。

物理环境安全的保护也是数据中心的重要保护措施,通常仅限于指定人员可以物理访问机柜中的设施,如果是大型数据中心或包含敏感信息的系统,还要使用摄像头进行永久性监控。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56