中国IDC圈讯,开放数据中心峰会(ODCC2020)在北京召开,峰会围绕数据中心新基建为主题,有数据中心领域及相关行业的众多专家与会在9月16日网络分论坛上,盛科网络(苏州)有限公司王俊杰进行了《企业网、运营商数据中心交换芯片探讨》的主题演讲。

盛科网络(苏州)有限公司王俊杰

盛科网络(苏州)有限公司王俊杰

王俊杰:各位专家,大家好,今天和大家分享的是企业网、运营商数据中心的交换芯片探讨。这张最开始的图,每次看到都很激动,盛科2005年成立,15年来就做了两件事,一直专注在网络交换芯片和软件上。左边图上可以看到,盛科的SONIC的想象空间,一是在于芯片能力,我们有面向企业网、运营商,数据中心,和行业网络等全系列芯片,二是在于全特性SAI支撑。盛科在SAI和SONIC上的投入,不仅仅只是依靠SONIC来驱动,盛科也有自研的CNOS系统能够先行对SAI进行产品化验证,并为SAI快速产品化落地做好支撑。最后就是盛科SDK的芯片接口。

回到今年的新基建主题,5G和数据中心。我非常喜欢这张图,这张图把5G和数据中心网络架构也说的很清晰,我们看到中间位置是运营商的5G承载网络,上面是接入了不同网络,包含:工业网,企业网,数据中心,还有包含下面的无线网络,有线网络,边缘计算,核心网。其实,我们了解不同的网络和场景对于网络的诉求其实都是各不相同的。

因此,回到我们今天的主题,也就是运营商数据中心网络,这个场景下对网络的核心诉求,我们也进行了梳理,分为四个部分:高可靠,低时延,高性能,强安全。

第一个就是 高可靠,可靠性是生命线,没有可以妥协的余地,尤其是 运营商。说起这个话题,最早就要回到,就不得不谈到堆叠,数据中心早期使用堆叠的好处也显而易见,一是带宽得到了提升,二是两个设备堆叠后,对外是作为一个设备来管理,用起来简单。当然,为什么现在的双联方案已经看不到堆叠了呢。其实,搞过堆叠开发的同学都知道这里头的开发难度很大,对厂商的能力要求很高,同时,堆叠内部一旦转发出了问题,还真是不好排查。所以,后来MLAG就作为一种开放的双上联协议,既兼顾了可靠性,还采用了开放的MLAG协议,使得不同厂商能够兼容互通,MLAG在10G和25GTOR双上联的数据中心方案中都很常见。再往后,就都是去横联的方案了,各家都有,这里我们就提一下EVPN Multi Home,既能够解决横联端口的问题,还能够采用EVPN协议面,不去单独增加开发一个协议,保护数据中心的简洁。

我们具体看一下堆叠实现和原理,比如需要两个芯片堆在一起,分为两种模式:入方向编辑模式,出方向编辑模式,中间通过堆叠头来关联,这个头是厂商私有的,无法互通,不符合现在数据中心解耦的趋势。通过这种堆叠实现芯片多拼的方案带来了互联端口和带宽的增加,因为之前芯片带宽能力没有上来,我们可以通过堆叠获得一些带宽的利好,最近两年芯片的带宽也在快速上涨,所以这个方案是不具备性价比的。另外,堆叠会带来的延时倍增,导致数据中心网络好不容易优化降低的时延,可能会被堆叠吃掉。

我们可以看到针对不同的业务平面,比如管理平面、业务平面和存储平面,可以把这些业务划分成多个平面接入不同的物理交换机,这样会有一个什么好处呢?其实就是针对不同的业务平面有多个服务器的接入,不会影响到整体的可靠性。当然,这也是一种方案,可能各个场景对于可靠性或者Cost的诉求不同,可能采用不同的组网方案,只是在追求可靠性的情况下,这是一个非常好的方法。MLAG这种方案是为运营商增加可靠性,相比堆叠会有更轻量的虚拟方案,也是支持双上联的冗余备份方式,各种网络操作系统,包括SONIC都支持MLAG协议,因此,具备完整的生态和较强的互通能力。

第二个就是低时延,5G和数据中心都明确提出了低时延的诉求,可选的方案之一是运营商采用的Flex-E硬切片来保障 确定性时延,还有一种是 工业控制TSN,我们都了解TSN协议簇其实是非常复杂的。但TSN是个复杂的协议簇,并不是面向5G和数据中心的低时延方案,尤其是抢占和重组。因此,我们做了简化,通过硬管道技术实现5G TSN的低时延,同时,避免了TSN复杂的协议簇,为5G和数据中心端到端的低时延形成闭环。5G TSN的具体的实现机制是,通过PIPE0和PIPE1将不同优先级的流量放入不同的PIPE中,从芯片接收到报文一开始,一直贯穿到芯片的入方向流水线,队列调度,出方向流水线,以保障绝对的优先级和确定性的低时延。我们在盛科的芯片平台上也进行了实测,针对多打一拥塞场景下,时延从非拥塞的1us劣化到30us,W采用5G TSN硬管道技术后,高优先级流量的测试时延稳定在1us左右W,效果还是非常明显的。

第三个就是高性能,阿里的曹博士刚才也提到了高性能,昨天会上大家都提到 存储是未来可能的瓶颈,还记得三年前年网络还被当做瓶颈。这两年网络高性能的突破,一是因为芯片带宽的快速增长。在10G接入的组网架构中,大多采用48*10G + 6*40G/100G,在1G的时候,大多采用48*1G+4*10G,到了25G,上行的端口有的是变成 8*100G。运营商数据中心上25G的时间点比OTT稍晚一点,这反而有了更多的想象空间。比如,对于一些对带宽性能要求高,可以采用48*25G + 6 *200G。能够带来两个利好,一是更好的收敛比,二是 享受到最新的200G生态。当然,还有个重要的因素就是 RDMA和可视化技术近两年相继被突破,数据中心高性能的网络有能力将带宽的提升转化为实际业务吞吐和性能的提升。比如:Buffer的可视化,Latency的可视化,Micro Burst的检测,Water Mark等技术带来的可视化数据,能够支撑高性能网络的运维。

第四个是强安全,传统的安全方案在数据中心的挑战,一是控制粒度太粗,比如,通过ACL 实现黑名单的防攻击,这种被动的防御很难帮助运维人员提前防范,而且如果攻击者太多,还会导致消耗太多ACL表项。在运营商数据中心可以通过 精细化的感知来分析异常,判断是否遭到攻击,并配合Security Group的ID映射技术实现精细化的安全策略控制,采用白名单机制,降低对ACL的消耗。最后,还支持基于安全组ID来实现端到端的加解密策略部署,简化运维。

最后,盛科的芯片架构是如何满足刚才提到的四个核心诉求?以青马交换芯片架构为例,中间的IPE,EPE是入方向和出方向的全特性集合的流水线,TM是队列调度,X-PIPE 就是对应的 5G TSN低时延硬管道,此外,还集成了三个引擎,一是可视化引擎,二是安全引擎,三是 OAM引擎。

从5G承载到数据中心,盛科已经累计发布6代10余款网络交换芯片,走过了漫长的技术积累,产品积累,以及大规模应用。有了数据中心芯片,搭配上SAI和SONIC,我们就可以将芯片的全部能力和想象空间带给用户。

我的分享就这么多,感谢大家。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2020-09-16 17:43:51
2020-09-16 17:27:29
交换存储 腾讯科技程传胜:近年来自研交换机的实践和探索
随着集群规模越来越大,网络也越来越大,传统SONIC交换机也越来越大,所以基于单芯片的自研交换机应运而生。 <详情>
2020-09-16 12:50:11
国内资讯 阿里巴巴王永灿:近年来自研交换机的实践和探索
随着阿里云业务的快速发展,其数据中心网络已经发展成为一个超大规模的网络,传统的商业设备在运维的稳定性和效率都是带来了很大的挑战 <详情>
2020-09-16 12:14:09
国内资讯 中国通信标准化协会副秘书长武冰梅:共建数据中心网络生态圈
9月16日,大会网络分论坛开启,论坛由ODCC网络组组长、阿里巴巴网络资深技术专家王超主持,中国通信标准化协会副秘书长武冰梅发表了开幕致辞。 <详情>
2020-09-11 18:29:02
整机柜服务器 ODCC 2020开放数据中心峰会亮点剧透之云服务器(方升)
COCI技术规范将由一系列与云基础设相关的技术标准组成,此次峰会方升项目组还会正式发布在ODCC新技术与测试工作组研究的平台建设、软硬件接口等方面的云服务器测试验收规范 <详情>