外行看热闹,内行看门道。近些年来,各种奇葩的数据中心层出不穷,外行看到的是酷,内行看到的是创新,当然也有部分人(包括部分从业者),却对此嗤之以鼻,认为是瞎折腾。
到底是不是瞎折腾?相比软件,老鱼对硬件是外行,本不敢妄言。不过本着软硬不分家,不懂就问的原则,最近跟不少硬件专家请教学习,多少还是有些收获。
因此,今天就以一个外行的角度,侃一侃国外企业为什么要花费大量人力物力搞出这么多稀奇古怪的数据中心,这种“折腾”背后的原因和驱动力是什么?如果说的对请点个赞,说的不对您就当个乐子。
奇葩的数据中心
开聊之前,先看一组下海、入地,去北极的奇葩数据中心组图。
这是微软最近刚宣布的一条消息,其自研水下数据中心正在英国苏格兰奥克尼群岛附近的海底试运行。
数据中心的尺寸与船舶、火车和卡车运输中使用的集装箱大致相当,其中装载了12个机架,包含864台服务器以及相关冷却系统设施。
Facebook位于吕勒奥的数据中心,离北极圈只有100公里。吕勒奥自1961年以来超过30度的时间不超过24小时。
Facebook设计了巨大的风机将外部冷空气引入机房内,被过滤器和雾化器处理后,从外界进来的冷空气会像水一样“冲洗”服务器。消耗的电力则少了将近 40%.
Iron Mountain地下数据中心,位于地下约66米深处。安全级别仅次于白宫和国防部的秘密资料库,声称是地球上最安全的地方之一。
这间数据中心采用的服务器冷却方式非常独特,他们将系统散热用通风管连接在数据中心内的石灰岩壁上,利用地底石灰岩的低温来为服务器散热。据称其散热的效率可达每平方英寸1.5个英制热量单位。
看完上图是不是感觉很酷,很黑科技,至少外行如我,最初看到还是蛮震撼的。其实,各种奇葩的数据中心还有很多,比如沙漠数据中心,牛粪数据中心,鉴于篇幅所限,就不一一列举。
就以微软数据中心下海为例,显然是需要巨大的成本投入的,因为,这可并不是把数据中心放在集装箱丢进海里就完事,涉及到潜艇技术,机架设计、冷却系统、机械工程、能源发电相等等多种技术相结合,显然是个大工程。
回到话题,国外企业为什么要花费重金把数据中心送到地下、海底和北极?背后的根本原因是什么?到底值不值?
原因解析:规模、效率、能耗
这些年无论是搞软件还是硬件,对分布式架构相信都不陌生。传统集中式架构由于成本高昂、灵活扩展性差等因素已经开始被逐步淘汰,而基于X86服务器的分布式架构广为流行,这使得大部分数据中心购买和使用大量便宜的通用服务器,在消除了弹性硬件需求的同时,也导致了硬件的疯狂扩张和大量的能源和冷却需求。而云计算发展壮大更是进一步推动了数据中心的集中化,由此诞生了“超大规模”的数据中心。
数据显示,2017年,仅亚马逊一家就采购了全球13%的服务器。据Synergy Research数据显示,2017年底,全球超大规模数据中心数量已经达到390个,其中美国以44%的份额位居首位,中国以8%的份额位列全球第二。
数据很清楚的告诉我们,在服务器与数据中心规模上,中美企业还有一定差距。而规模大了就会带来很多问题,而且是没有达到一定规模是难以深刻感受的问题。而创新总是基于需求驱动,国外企业在数据中心上的创新走在我们前面就不难理解。这与我们在移动支付方面远胜美国是一个道理。
而超大规模数据中心带来的问题主要有以下三个方面:
首先是能耗。数据中心规模小的时候可能更关注建设成本,规模大时节能的重要性反而远高于建设成本。企事录创始人张广彬向老鱼举了个例子,国内大型互联网运营商中的某家数据中心提供商发布公告,要为其建设五个数据中心约40亿,但十年的电费,却将近83亿。这是一个很鲜明的例子,十年的电费是建设费用的2倍多,这充分说明了,对超大规模的数据中心建设而言,如果用少部分的建设成本提升换取更好的节能效果,那绝对是划算的买卖。
不过,张广彬也感叹,相对国外企业,国内企业对基础硬件方面重视程度还是远远不够。(PS:老鱼也想说,其实国内对基础软件的重视也好不到那里去,相比而言,基础软件公司比基础硬件公司生存更加艰难。)
其次是密度。随着房地产成本的不断飙升,使得企业很难通过将收购土地,以新建数据中心作为一种产能扩张的手段。因此,如何在相同的空间放置更多的机器就成为了一个方向,但机架中服务器放多了又会带来能源供应和散热问题。还有,通用服务器也无法满足规模化的需求,因为通用服务器规模化又带来密度低、能耗高、安装和维护工作量大等问题。
最后是环保,数据中心长期以来,一直受到环保组织的批评,因为它们不仅是能源消耗大户还是碳排放大户。2016年,美国政府的一项研究发现,2014年,美国的数据中心消耗了700亿千瓦时的电力,相当于该国全年能源消耗总量的1.8%。研究人员估计,2014年数据中心每年对全球温室气体排放总量的贡献率约为2%。
因此,如何降低能耗、降低成本,打造出绿色节能的新型数据中心,就成为许多企业及工程师们需要思考和解决的问题。为了解决这些问题,自然也就诞生了众多的创新,各种奇葩的数据中心设计,开放计算与整机柜服务器就是奔着解决这些问题而去的。
开放计算、开源硬件、整机柜
开源软件大家都熟悉,相比开源软件,开源硬件出现的时间就要晚的多,而且一直在模仿开源软件的运作模式。
开放计算就是开源硬件的一类,旨在促进行业的专有技术和硬件供应商和用户之间最佳实践的共享,使他们设计和生产的基础设施可以有效的运行和部署,以应付未来数据中心需求。
提到开放计算,就必须提到3大组织,OCP(Open Compute Project)、ODCC(原天蝎联盟Project Scorpio)、Open19,三大组织的宗旨都是打造数据中心开放平台,推动数据中心基础设施标准化、产业化。
其中,OCP由Facebook发起,最初是为了对抗谷歌,现在谷歌也加入其中,算是做的比较好的,在欧美包括亚太都有一定影响力,节点量也较多。ODCC(天蝎组织)是国内BAT搞的开放数据中心联盟,对标的是OCP,在国内的落地应用也较多,有几十万的节点。而Open19刚起步,影响力有待进一步提高。
值得注意的是,这三大组织都同时选择整机柜服务器的这种产品形态,原因很简单,因为超大规模数据中心部署速度是一个非常头疼的现实问题,而整机柜服务器就能很好解决这个问题。
目前,整机柜服务器国内的大用户是百度,12306也部署的整机柜服务器。
整体机柜有这么多好处,可并不适合所有企业,那到底什么企业适合使用整机柜服务器?老鱼总结为以下2条:
一、 采购规模够大(如果每年只有几十台上百台就别考虑了!)
二、 有高效利用设备的需求
最后,关于整机柜服务器选择,这里不得不提下浪潮,不是因为浪潮是唯一一家同时支持以上三大开放标准的服务器提供商,而是浪潮在开放计算方面,起步最早,属于最早吃螃蟹的,更是国内整机柜服务器出货量大一家,出货量大意味着产品落地应用最多,成熟度更高。
当然,最后怎么选,还得根据您企业情况来。
写在最后
在云计算,人工智能,大数据,物联网的推动下,整个计算行业对数据中心资源的需求正在呈指数级增长。
这种场外服务的需求增长将为服务提供商的硬件基础设施带来更大的成本压力,许多主要的云计算供应商将在产品价格上进行激烈的竞争,因此,在基础设施上的任何创新,都将势必成为竞争力的一种体现,无论是基础硬件(数据中心),还是基础软件。
正是在此种背景下,开放计算应运而生,采用开放计算,相当于站在巨人肩膀上成长。虽说,开放计算或整机柜并不能代表数据中心的未来,因为,正如前文所说,创新基于业务驱动,业务的不同最终会导致数据中心需求与实现方式上的不同。但总体而言,开放计算依然是当前大多数超大规模数据中心建设最佳选择之一。