随着互联网和云计算行业的快速发展,数据中心网络的重要性前所未有的凸显。展望2020年,数据中心网络技术会有哪些热点问题受业界关注,面临这些技术热点问题你会如何应对?

热点10:SDN的浪潮下,CLI/SNMP运维管理方式是否会被淘汰?

上榜指数:★★★☆☆

上榜原因:CLI/SNMP难以满足大规模网络运营管理的要求。

CLI命令行和SNMP简单网络管理协议可以说是和网络设备历史一样悠久的古老运维管理技术手段,特别是CLI敲打如飞一度是CTO(Chief Troubleshooting Officer)的体现。今天大部分企业的网络运维管理系统仍然依赖CLI和SNMP,然而CLI和大量SNMP MIB的私有性导致适配工作量很大,同时CLI和SNMP在大规模网络场景下性能和实时性差、可靠性差的缺点也凸显出来。

随着Openflow、OVSDB、gRPC、Openconfig、RestAPI等技术手段的不断出现和发展,预计2020年,Telemetry的订阅和推送机制、RestAPI、Yang model数据结构的组合也许会成为新一代数据中心网络运维管理系统的主流选择,取代CLI/SNMP。

热点 9:智能网卡发展迅猛,会取代现有服务器网卡吗?

上榜指数:★★★☆☆

上榜原因:网卡容易被忽视,但它的重要性日趋明显。

过去的几年中,网卡从千兆网卡变成万兆网卡,以及25G网卡,速率不断提升,并且网卡还可以通过SRIOV、TSO等技术提供性能加速。然而,工程师们对网卡有更高的期望,比如将Open VSwitch、DPDK、Vxlan等软件特性由网卡实现,提高服务器网络性能、降低时延、节约CPU。对公有云企业来说,一台服务器只要能节约出一个CPU核,就可以在不长时间内把服务器智能网卡额外的成本收回来。

可以预计,在2020年,智能网卡将会成为公有云服务器、网关类服务器、NVF服务器的标配。

热点 8:核心交换机功耗越来越高,你的机架电力和散热还撑得住吗?

上榜指数:★★★☆☆

上榜原因:机架真的快撑不住了。

在万兆时代,一台满配36*40G线卡的16槽核心交换机需要10~12KW以上的机架电力支持;在25G时代,一台满配36*100G线卡的16槽核心交换机将这个数字提高到18~20KW;

在2020年的50G/100G时代,一台满配36*400G线卡的16槽核心交换机对机架电力的要求预计很可能会高达30~40KW。30~40KW的机架不仅电力改造的成本非常巨大,而且传统风冷散热非常困难。

可以预计,如果2020年IDC机架液冷散热技术仍然不能大规模普及,核心交换机采用8槽甚至更小的机箱降低单机功耗是更为可行的选择,代价是需要解决网络核心设备数量大幅增加带来的额外管理、架构设计等问题。你的网络架构做好准备了吗?

热点 7:交换芯片体系架构,缓存会成为瓶颈吗??

上榜指数:★★★★☆

上榜原因:缓存对数据中心应用的影响不可忽视。

大部分交换芯片的片上缓存都不大,一般都是几十MB,比如Trident 2是12MB,Trident 3是32MB,甚至有些交换芯片按pipeline分割使用缓存。网络端口速率从千兆发展万兆再到25G,服务器的全速率发送能力增加到25倍,交换芯片缓存与此同时仅增大为2~3倍左右。如果用同样的全速率发送流量模型进行测试,会发现25G网络下多打一导致的Tcp incast现象比万兆网络更加明显,相应的对业务和应用的优化要求或丢包率容忍度要求会更高。当然,我们知道Tcp incast并不是通过缓存能够避免发生的,相反过大的缓存还可能会导致网络时延的大幅增加。

预计2020年,受制于时钟、总线带宽的能力缓存性能难以大幅提升,考虑到功耗、成本的平衡缓存容量也不会大幅增加,而我们可能要通过适度轻载、部署优先级、端到端实时性流控等方式尽可能优化对时延和丢包敏感的关键业务流量的性能,如RDMA流量。

热点 6:可编程芯片,是否会广泛应用?

上榜指数:★★★★☆

上榜原因:P4及可编程技术打开了网络的另外一扇门。

长久以来,网络工程师们面对的是功能固化的交换芯片,即便是openflow等SDN技术,也只能在传统转发pipeline上通过ACL等表项模拟所需的转发行为。然而以Barefoot等为代表的新一代可编程交换芯片提供了改变这一现状的机会。这类芯片在提供同等转发性能的同时,可以让网络工程师对转发Pipeline的部分行为进行定制化设定。

然而,我们真的需要在线的交换机随时可以通过芯片级编程来改变转发行为吗?似乎网络工程师们还看不到这样的迫切需求。但毫无疑问的是,可编程芯片已经为自定义INT(In-band Network Telemetry)、下一次支持类似vxlan封装等这类场景做好了准备。

可以预计,2020年,会有很多网络工程师利用可编程芯片验证新的类似INT的运营管理手段,验证vxlan、service chain、openflow等类似应用,以便确定线上最终部署所需的芯片工作模式。至于最终线上部署的交换芯片是否应该是可编程芯片,我的答案是,如果价格足够便宜、稳定性足够高、性能足够好,为什么不那?

更多前瞻网络技术话题,请关注和参与8月22日2017开放数据中心峰会。

本文作者:杨志华,ODCC网络工作组组长、阿里巴巴资深网络专家。

ODCC2017专题页面链接:http://www.idcquan.com/Special/odcc2017/

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56