上世纪60年代采用晶体管技术的大型主机能耗巨大,使得许多组织采用液体冷却循环技术进行冷却。上世纪70年代和80年代的超级计算机(例如Crays)也采用了复杂的液体冷却技术。然而,随着服务器的微处理器技术不断进步,性能得到指数级提高,这需要更加合理的热输出。
当今通用的服务器可以通过空气流动排出热量进行冷却,而无需专门采用液体冷却技术。主流2U服务器的功率通常为150W左右。这种热设计功率(TDP)的标准已经存在了10年,因此,可以使用精密空调冷却技术有效地进行冷却。
人工智能对IDC的冷却提出了巨大的要求
随着人工智能的技术进步,如今已经从实验室的研究转向真正的商业和消费者应用。由于人工智能应用程序的计算量很大,因此许多IT硬件架构师使用GPU作为核心处理器或辅助处理器。许多基于GPU的服务器,其散热量是传统服务器的两倍,热设计功率(TDP)达到了300W,这成为了液体冷却技术在数据中心复兴的原因。
液体冷却一直在高性能计算(HPC)应用的利基应用中崭露头角,但人工智能的应用对数据中心冷却提出了更高的要求。液体冷却技术的优势在于能够以更高的密度进行部署,通过提高效率来降低总成本(TCO),并显著减少占地面积。
虽然液体冷却的好处令人印象深刻,但其应用障碍却令人望而生畏。这是因为新型服务器采用了机箱、歧管、管道、液体流量管理等更多的设计,也因此液体冷却技术的部署具有高度的复杂性。还有很多人担心,复杂的管道和配件系统会发生泄漏导致服务器毁坏。而人们真正关注的是如何维护服务器的可用性,尤其是大规模应用。
还有一些人认为,数据中心用液体冷却可能没有意义,可以通过开发更好的空气冷却技术来解决。但随着数据中心技术的不断进步,能耗也越来越高,液体冷却技术可能在未来成为一种可行的高效冷却技术。
【中国IDC圈编译 未经授权禁止转载】
相关阅读: