随着互联网和云计算行业的快速发展,数据中心网络的重要性前所未有的凸显。展望2020年,数据中心网络技术会有哪些热点问题受业界关注,面临这些技术热点问题你会如何应对?
热点5:下一代数据中心主干以太网演进,200G or 400G?
上榜指数★★★★☆
上榜原因大家都在等米下锅
如果说从2016年开始的大规模数据中心主干网络升级的浪潮是从40G升级到100G,那么2020年的下一代升级浪潮应该是怎么样的?业界因此有200G和400G两种路线。
图1 以太网标准进展(来源:Ethernet Alliance)
200G的优势是所需的QSFP及50G Serdes均已成熟商用,缺点是相对100G的每G带宽成本降低幅度不算太大;400G正好相反,预期的每G带宽成本下降幅度足够大,但需要QSFP搭载100G Serdes,或8通道的新标准(如OSFP、QSFP-DD)搭载50G Serdes,而100G Serdes、OSFP、QSFP-DD商用时间预计都要在2018年以后。
根据Google、Facebook等披露的数据,这些互联网巨头数据中心内部流量每年增长幅度接近100%,那么,部署100G较早的少数互联网巨头,比如Google,很可能会谋求尽快获得200G,而其它企业则可以选择跳过200G等待400G获得更好的性价比。IEEE的400G以太网标准预计2017年完成,而200G以太网标准预计2018~2019年完成,也许也反应了业界大部分企业的心态——更看好400G。
考虑到即便只有Google采用200G也会有足够的市场影响力,可以预计,2020年200G和400G均商用就绪,但400G会更加主流,性价比更优。
热点4:400G数据中心网络,光纤选多模还是单模?
上榜指数★★★★☆
上榜原因多模和单模一直是一道没有标准答案的选择题
数据中心集群内布线选择多模光纤还是单模光纤一直是一个业界在讨论的话题,各大玩家也各有选择,比如100G时代,Facebook选择单模,Google选择多模和单模同时部署,BAT则选择多模。
从成本角度,多模光纤贵但多模光模块便宜,单模光纤便宜而单模光模块贵,因此很容易将光纤和光模块成本进行组合评估,得出距离和成本的关系。比如100G,光纤距离在100米以内时多模解决方案的成本优势非常明显。
从技术角度,传统上多模解决方案代表光纤并行方向,单模解决方案代表波长复用方向(PSM4是个新的方向,单模并行)。40G和100G时代这两种解决方案分别在短距和中长距场景各有千秋相安无事共同发展。然而400G时代情况有了变化,并行技术路线似乎在400G时代触碰到了天花板。
并行技术路线的特点是每一对多模光纤分别承载一路光信号。目前IEEE的400G SR16标准是16*25G并行方案,需要16对多模光纤,远远超过100G时代广泛使用的12芯MPO,会导致成本大幅上升;更重要的是,多模光模块所依赖的低成本VCSEL光芯片方案,2020年很可能仍然只能提供每路50G的能力,400G SR8的8*50G方案仍然需要超过12芯MPO的8对多模光纤。现有的12芯MPO能够容纳的400G SR4看上去遥遥无期。
图2 400G网络技术演讲(红色部分为IEEE 802.3bs baseline规定
多模实际上也可以有波长复用解决方案。目前的一些私有技术,如SWDM,可以实现一对多模光纤上4路光信号的传输。但私有技术封闭性导致的光模块互通性问题和成本的提升,是这类解决方案大规模普遍应用难以逾越的大山。
因此在2020年,如果没有开放且标准化的多模波长复用技术出现,低成本VCSEL 100G技术也不能取得突破,400G多模光纤解决方案成本优势将不再明显,单模光纤在大规模数据中心也许将成为主流,而中短距的单模并行解决方案也许会是替代多模并行解决方案的高性价比选择。
拥有多模波分复用私有技术的玩家,会为了避免400G多模解决方案的困境彼此妥协形成一个统一的标准吗?让我们拭目以待。
热点3:数据中心400G光模块封装,OSFP、QSFP-DD该如何选择?
上榜指数:★★★★★
上榜原因一个小小的封装问题,牵动多少网络大咖的心
历史上光模块封装一直有多个标准并行,但像OSFP、QSFP-DD这样如此受到关注的却不多见。400G光模块封装目前有多个标准,除了OSFP、QSFP-DD外还包括CFP8、CDFP等,其中OSFP、QSFP-DD是面向数据中心数通网络的两个标准。
OSFP和QSFP-DD的共同点是都将QSFP的4通道扩展为8通道,8*50G的支持来实现400G,未来还可以通过8*100G实现800G。
OSFP的优势是体积大散热好工程实现相对容易,外加有Google的加持,缺点是1U面板的尺寸基本只能做32*400G。OSFP预计2018年商用
QSFP-DD的优势是1U面板可以做到36*400G的密度,并且对QSFP前向和后向兼容,可兼容现有的QSFP28光模块及AOC/DAC等,缺点是尺寸较紧凑对设计和散热有更高要求(之前QSFP-DD的散热方面认为有较大局限,但现在也可以做到12W不再是瓶颈)。QSFP-DD得到Facebook的公开支持。从OFC 2017来看,QSFP-DD得到业界越来越多的支持。QSFP-DD预计2019年商用。
预计2020年,很多交换机、光模块厂商都会同时支持两种封装,但QSFP-DD携更高端口密度和前后向兼容性的优势很可能会成为市场主流。
热点2:数据中心框式交换机,体系架构会如何变化?
上榜指数:★★★★★
上榜原因昂贵而复杂的东西,天然会留下被颠覆的空间
长久以来,框式交换机的软硬件设计复杂,产品研发周期长,成本高昂,强烈依赖特定芯片。基于类似信元的内部转发、大片外缓存、N+1交换矩阵冗余等都是框式交换机给人留下的特有印象。
OCP的6-Pack、Backpack的发布给业界展示了互联网巨头们一直在尝试的另外的方向。Backpack采用100G以太网互联的CLOS架构,使用Tomahawk这样主要用于TOR的芯片而不是传统的Dune芯片,交换矩阵无N+1冗余,实际上它们就可以看作是用一堆Wedge接入交换机像乐高积木那样搭建起来的。
图4 Backpack G4前视效果图(来源Backpack_OCP_Spec_V1.10)
图5 Backpack G4线卡与矩阵互联架构(来源Backpack_OCP_Spec_V1.10)
从数据中心应用场景来看,不依赖特定交换芯片的以太网架构比信元架构转发效率虽然要低10%左右但成本可以大幅降低,流数量巨大且不是同步突发、端口速率一致匹配、收敛比设计合理时对缓存要求会降低,交换矩阵无N+1冗余可以进一步降低成本。
当然,6-Pack、Backpack这样的框式交换机每一块线卡、交换矩阵等在管理层面实际上是独立的一台台交换机,对网络运维管理能力要求很高,实际上是以强大的架构、研发和运维能力换取成本收益。所以,是否能够仍然作为一个管理节点进行管理对大部分用户来说会是一个重要考量点。实际上,已经有OEM厂商开始尝试推出类似这样架构但仍然是一个管理节点的框式交换机产品,体系架构改变带来的成本明显优势大大提升了其产品在市场上的竞争力。
可以预计,2020年,适用于大规模数据中心框式交换机的体系架构将会趋向400G以太网CLOS架构,不使用片外扩展缓存,采用和TOR一致的交换芯片种类,而且极可能取消N+1冗余交换矩阵换取更低的成本。
热点1:数据中心白盒交换机+开源OS的模式是否会大行其道?
上榜指数:★★★★★
上榜原因白盒,想说爱你不容易
白盒交换机很容易获得,但搭载的交换机OS却是一个难题。如果没有很大的网络规模和足够的决心,单一用户难以承受独立进行自有交换机OS研发的长期投入成本和研发节奏。因此,大家都期盼能有一个好用的数据中心开源交换机OS。
然而开源交换机OS也不容易。首先,从社区运作角度,如果没有用户主导方向、用户自己投入研发资源,仅依靠商业厂商,社区难以持久有效的运作;其次,需要有一个良好的软件架构,具备良好扩展性可以支持未来SDN网络的发展,同时模块之间可以松耦合便于不同用户的研发协同;再次,需要轻量专注,仅研发数据中心网络必须的特性;最后,需要有同步发展和包容的生态,借助更多的用户、芯片厂商、ODM/OEM、服务商等的有效参与,活跃相关的研发、部署、推广。Linux、Openstack、Ceph等均是开源社区成功运作的典范。
目前,开源交换机OS的典型代表是SONiC,SONiC开源社区已经有一个良好的起步,然而还任重道远。1.0天使阶段,开源社区需要依靠有实力的社区成员共同投入较多研发资源获得一个可用的版本并在社区成员的数据中心网络规模部署完成验证;2.0发展阶段,更多的有一定研发能力的较大网络规模用户开始加入并尝试使用,版本日趋完善和成熟;3.0普惠阶段,大量普通用户开始直接使用,众多服务商可以提供白盒+开源OS的部署和运维服务。
可以乐观的预计,2020年,开源OS社区将发展到2.0阶段后期,白盒交换机市场将迎来井喷式发展,白盒交换机+开源OS将成为很多企业CTO/CIO的选项之一。
更多前瞻网络技术话题和干货,请关注并参与8月22日2017开放数据中心峰会。
本文作者
杨志华
ODCC网络工作组组长、阿里巴巴资深网络专家
ODCC2017专题链接:http://www.idcquan.com/Special/odcc2017/