Google数据中心和基础设施是业界公认最为先进的,以往他们保密做得很严,所以所有相关的信息透露都会引起关注。毕竟,现在大红大紫的Hadoop最初就是山寨人家的几篇论文而已。
网易上的文章介绍了Google数据中心中的网络设计,这方面信息之前是很稀缺的。文章应该是摘译自 Wired 。Wired文章的特点是八卦信息多(因为他们要写的是故事,不是技术本身),技术细节少,还时常有技术错误(至少这篇文章里Jupiter交换机处理能力的数据就是过时的),但对了解一件事儿的来龙去脉还是有用的。
文中大致说的意思,就是Google很早就开始自己研发网络设备了,因为他们的系统增长很快,思科之类的设备满足不了需要(勉强能用也贵得要死),反正和云计算其他领域是一样的:互联网公司发展远远超出传统IT的范围,所以只好自己玩了。
反正Google这种公司能招到好的人才,业界没有就直接挖学校的教授(Amin Vahdat就是因为做过相关研究 PortLand 被请过去的)。然后用普通芯片加上Linux搞定交换机,自己设计网络协议,自己设计网络控制软件。最后做出来超级大的网络系统。相关的技术还有 SDN 。
比较引人注目的点是:“如今谷歌网络内部数据中心之间交换的数据量已经超过了谷歌和整个互联网之间交换的数据量。”
好在Google负责网络的Fellow Amin Vahdat 还写了一篇“官方博客”介绍他们的数据中心网络设计,强调是第一次公开Google内部五代网络技术的细节,从Firehose到Jupiter,最新的Jupiter可以提供 1Pb/s的总对分带宽,足够10万台服务器每台之间以10Gb/s交换信息,可以在十分之一秒之内读取所有美国国会图书馆的扫描数据。
不过文章很短,语焉不详,只说了几条原则:
1.以 Clos拓扑安排网络,这种网络配置用一组较小(较便宜)的交换机来提供一台大得多的逻辑交换机的功能。
2.使用集中化的软件控制栈来管理数据中心中的数千交换机,让它们像一台大的fabric那样工作。
3.自建软件和硬件(使用来自Broadcom等供应商的芯片),不太依赖标准Internet协议,更多使用根据数据中心定制的协议。(Wired文章里说定制协议叫Firepath,比BGP和OSPF之类更简单、更快也更容易扩展)
好在Google管基础设施的老大Urs Hölzle在博客下面评论说:“等着我们的论文吧,8月的SIGCOMM 2015。” 他们在 SIGCOMM 上已经提交的论文名为“Jupiter Rising: A Decade of Clos Topologies and Centralized Control in Google’s Datacenter Network ”。
让我们拭目以待吧。