人工智能是当前的热点,它的发展对计算能力提出了新的挑战。作为计算能力的主要提供者,面向人工智能的服务器技术成为业界关注的焦点。业界知名的行业组织OpenAI发布的报告显示,自2012年以来,业界大规模的人工智能训练(如2012年的AlexNet、2014年的GoogleNet、2017年的AlphaZero等)使用的计算量呈指数级增长,平均每隔3.5个月就会翻一倍,使得其在过去的六七年间已经增长了30多万倍。因此,为了满足人工智能领域激增的计算需求,作为计算能力主要提供者的服务器技术面临新的挑战,成为业界关注的焦点。
关于AI服务器,目前业界发展情况如何,适用于哪些应用场景,AI计算对服务器有什么新的要求,在相应的应用场景下存在哪些潜在的业务需求,AI服务器应当具备怎样的整体架构,业内都有哪些典型的AI服务器配置,以及AI服务器未来的发展趋势,请关注本次峰会的《AI服务器白皮书》。
当前,基于X86架构CPU(Central Processing Unit,中央处理单元)的服务器是业界的主流。在这类服务器中,最核心的计算部件是CPU,它一直遵循着摩尔定律按照每18个月性能翻一倍的趋势发展。但随着人工智能训练计算量的发展,CPU计算能力与人工智能需求间的差距将越来越大。这对AI服务器架构将是一个新的挑战。
计算芯片作为服务器的核心部件之一,它的变化将直接关系到服务器中与之相配合的内存、存储、网络乃至供电、散热、机箱等设计要素的调整与更新,从而形成完备的人工智能服务器技术体系。因此,白皮书重点针对人工智能业务负载需求,梳理了人工智能服务器的背景、核心需求、工作场景,提出了人工智能服务器总体架构及关键技术体系,对其中重点技术进行了深入分析,总结了目前业内典型人工智能服务器配置及相关案例,最后对人工智能服务器的未来发展趋势进行了展望。
本项目欢迎ODCC合作伙伴踊跃加入。
项目经理:肖扬
中国电信股份有限公司战略与创新研究院
xiaoyang@chinatelecom.cn
点击下方链接了解、报名!
2019ODCC开放数据中心峰会:http://www.idcquan.com/Special/ODCC2019/