数据中心

随着互联网和云计算行业的快速发展,数据中心网络的重要性前所未有的凸显。展望2020年,数据中心网络技术会有哪些热点问题受业界关注,面临这些技术热点问题你会如何应对?

热点10:SDN的浪潮下,CLI/SNMP运维管理方式是否会被淘汰?

上榜指数:★★★☆☆

上榜原因:CLI/SNMP难以满足大规模网络运营管理的要求。

CLI命令行和SNMP简单网络管理协议可以说是和网络设备历史一样悠久的古老运维管理技术手段,特别是CLI敲打如飞一度是CTO(Chief Troubleshooting Officer)的体现。今天大部分企业的网络运维管理系统仍然依赖CLI和SNMP,然而CLI和大量SNMP MIB的私有性导致适配工作量很大,同时CLI和SNMP在大规模网络场景下性能和实时性差、可靠性差的缺点也凸显出来。

随着Openflow、OVSDB、gRPC、Openconfig、RestAPI等技术手段的不断出现和发展,预计2020年,Telemetry的订阅和推送机制、RestAPI、Yang model数据结构的组合也许会成为新一代数据中心网络运维管理系统的主流选择,取代CLI/SNMP。

热点 9:智能网卡发展迅猛,会取代现有服务器网卡吗?

上榜指数:★★★☆☆

上榜原因:网卡容易被忽视,但它的重要性日趋明显。

过去的几年中,网卡从千兆网卡变成万兆网卡,以及25G网卡,速率不断提升,并且网卡还可以通过SRIOV、TSO等技术提供性能加速。然而,工程师们对网卡有更高的期望,比如将Open VSwitch、DPDK、Vxlan等软件特性由网卡实现,提高服务器网络性能、降低时延、节约CPU。对公有云企业来说,一台服务器只要能节约出一个CPU核,就可以在不长时间内把服务器智能网卡额外的成本收回来。

可以预计,在2020年,智能网卡将会成为公有云服务器、网关类服务器、NVF服务器的标配。

热点 8:核心交换机功耗越来越高,你的机架电力和散热还撑得住吗?

上榜指数:★★★☆☆

上榜原因:机架真的快撑不住了。

在万兆时代,一台满配36*40G线卡的16槽核心交换机需要10~12KW以上的机架电力支持;在25G时代,一台满配36*100G线卡的16槽核心交换机将这个数字提高到18~20KW;

在2020年的50G/100G时代,一台满配36*400G线卡的16槽核心交换机对机架电力的要求预计很可能会高达30~40KW。30~40KW的机架不仅电力改造的成本非常巨大,而且传统风冷散热非常困难。

可以预计,如果2020年IDC机架液冷散热技术仍然不能大规模普及,核心交换机采用8槽甚至更小的机箱降低单机功耗是更为可行的选择,代价是需要解决网络核心设备数量大幅增加带来的额外管理、架构设计等问题。你的网络架构做好准备了吗?

热点 7:交换芯片体系架构,缓存会成为瓶颈吗??

上榜指数:★★★★☆

上榜原因:缓存对数据中心应用的影响不可忽视。

大部分交换芯片的片上缓存都不大,一般都是几十MB,比如Trident 2是12MB,Trident 3是32MB,甚至有些交换芯片按pipeline分割使用缓存。网络端口速率从千兆发展万兆再到25G,服务器的全速率发送能力增加到25倍,交换芯片缓存与此同时仅增大为2~3倍左右。如果用同样的全速率发送流量模型进行测试,会发现25G网络下多打一导致的Tcp incast现象比万兆网络更加明显,相应的对业务和应用的优化要求或丢包率容忍度要求会更高。当然,我们知道Tcp incast并不是通过缓存能够避免发生的,相反过大的缓存还可能会导致网络时延的大幅增加。

预计2020年,受制于时钟、总线带宽的能力缓存性能难以大幅提升,考虑到功耗、成本的平衡缓存容量也不会大幅增加,而我们可能要通过适度轻载、部署优先级、端到端实时性流控等方式尽可能优化对时延和丢包敏感的关键业务流量的性能,如RDMA流量。

热点 6:可编程芯片,是否会广泛应用?

上榜指数:★★★★☆

上榜原因:P4及可编程技术打开了网络的另外一扇门。

长久以来,网络工程师们面对的是功能固化的交换芯片,即便是openflow等SDN技术,也只能在传统转发pipeline上通过ACL等表项模拟所需的转发行为。然而以Barefoot等为代表的新一代可编程交换芯片提供了改变这一现状的机会。这类芯片在提供同等转发性能的同时,可以让网络工程师对转发Pipeline的部分行为进行定制化设定。

然而,我们真的需要在线的交换机随时可以通过芯片级编程来改变转发行为吗?似乎网络工程师们还看不到这样的迫切需求。但毫无疑问的是,可编程芯片已经为自定义INT(In-band Network Telemetry)、下一次支持类似vxlan封装等这类场景做好了准备。

可以预计,2020年,会有很多网络工程师利用可编程芯片验证新的类似INT的运营管理手段,验证vxlan、service chain、openflow等类似应用,以便确定线上最终部署所需的芯片工作模式。至于最终线上部署的交换芯片是否应该是可编程芯片,我的答案是,如果价格足够便宜、稳定性足够高、性能足够好,为什么不那?

更多前瞻网络技术话题,请关注和参与8月22日2017开放数据中心峰会。

本文作者:杨志华,ODCC网络工作组组长、阿里巴巴资深网络专家。

ODCC2017专题页面链接:http://www.idcquan.com/Special/odcc2017/

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2018-01-04 10:41:40
国内资讯 分析师视角:2018年的数据中心3大预测
向数字业务平台的迁移促使基础设施和运营(I&O)领导者必须重新去思考他们的数据中心策略。像人工智能这样的数字业务平台,包括机器学习(ML)、深度神经网络(DNN)和物联网,对 <详情>
2018-01-04 10:32:07
机房建设 解读SDN成为数据中心网络佳选的五大原因
软件定义网络(SDN)是指通过控制和数据包转发平面分离来实现,这种架构可以降低运营成本,减少进行更改或提供服务所需的时间。由于所有的智能都存在于软件中,而不是单一 <详情>
2018-01-04 10:10:26
机房建设 Uptime Institute总裁:数据中心领域至少还有10年的增长
日前,行业媒体与数据中心设施咨询机构Uptime Institute总裁Lee Kirby一起探讨与分析了数据中心行业技术与发展的现状与趋势,其内容包括数据中心认证、层级、边缘计算、电 <详情>
2018-01-04 09:41:00
国际资讯 欧洲数据中心市场在2018年将如何变化
2017年对全球数据中心发展来说是火热的一年,但是随着更多的整合、新市场的出现,以及新法规的出台,欧洲的数据中心在2018年似乎将面临比较极端的变革。 <详情>