hb1

近几年来关于AI的应用非常广泛,遍布在各个领域,从早期的键盘、鼠标到触屏,到如今可以通过语音识别等技术实现跟机器人自然交互,或者说我们正处在一个AI的时代。

人工智能的研究由来已久,早期时候更多是依靠专家,根据他们自己的经验来告诉机器,机器在定义好的规则里做一些搜索。这个是依赖专家的经验。2006年以后,随着数据量和硬件计算能力的大幅度提升,人们开始尝试直接将数据交给计算机,让计算机自己在里面做搜索。算法是核心,硬件和数据是基础。

深度学习作为人工智能的核心技术,通过模仿人类大脑的神经机制来分析和解释数据,例如图像、声音、文本。但是人的大脑本身并没有成熟的规则,这一切是通过神经元触发实现的。DNN、CNN、RNN是目前常用的几种神经网络算法分类,TensorFlow、Caffe是几种常用的深度学习框架。

神经网络包含输入层、输出层和隐藏层,每层都包含若干个神经元,神经元之间通过权重参数进行计算,如同形成了一个巨大的神经网络。用一个简单的例子说明一下深度学习训练和预测过程,这是一个图像识别,我们的目标是构建一个神经网络的模型,来实现对图片信息的准确识别。预测是我们最终目的,为了实现最终目的,我们需要数据,将数据做上标签,经过神经网络的前向计算,产生类别,将这个类别与标签的类别做比较,将结构反推给神经网络,如此反复。

下面聊一下AI芯片。大家知道非常著名的摩尔定律,每隔18个月相同成本下,芯片的晶体管数量会翻一番,相应的计算性能也将提升1倍。随着晶体管的体积逐渐接近物理极限,或许在将来摩尔定律会面临失效。在AI领域随着数据量和计算量暴增,我们对计算性能有了更高的追求,于是大家开始寻找计算之外的,比如GPU、FPGA、AISC。GPU没有那么多的控制器件,取而代之的是大量的计算核心,GPU有了远超CPU的大规模数据运算能力。FPGA和CPU、GPU不同,功耗也比GPU要低,ASIC性能提升是以牺牲通用性为代价。有关异构平台广泛存在,大到数据中心,小到手机、平板、可穿戴设备。用CPU+来描述异构平台,CPU+GPU、CPU+FPGA、CPU+TPU等。

最后说一下计算平台的选择,从现阶段看,受益于各个框架对GPU的良好支持,我们对GPU的需求也从最初的单机单卡发展到单机多卡到现在的多机多卡。Inference端会选择CPU+GPU或者CPU+FPGA/ASIC,FPGA同时拥有流水线并行和数据并行,ASIC兼具高吞吐量、低延迟、低功耗的特性。

就分享这么多,谢谢大家。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2018-01-04 10:41:40
国内资讯 分析师视角:2018年的数据中心3大预测
向数字业务平台的迁移促使基础设施和运营(I&O)领导者必须重新去思考他们的数据中心策略。像人工智能这样的数字业务平台,包括机器学习(ML)、深度神经网络(DNN)和物联网,对 <详情>
2018-01-04 10:32:07
机房建设 解读SDN成为数据中心网络佳选的五大原因
软件定义网络(SDN)是指通过控制和数据包转发平面分离来实现,这种架构可以降低运营成本,减少进行更改或提供服务所需的时间。由于所有的智能都存在于软件中,而不是单一 <详情>
2018-01-04 10:10:26
机房建设 Uptime Institute总裁:数据中心领域至少还有10年的增长
日前,行业媒体与数据中心设施咨询机构Uptime Institute总裁Lee Kirby一起探讨与分析了数据中心行业技术与发展的现状与趋势,其内容包括数据中心认证、层级、边缘计算、电 <详情>
2018-01-04 09:41:00
国际资讯 欧洲数据中心市场在2018年将如何变化
2017年对全球数据中心发展来说是火热的一年,但是随着更多的整合、新市场的出现,以及新法规的出台,欧洲的数据中心在2018年似乎将面临比较极端的变革。 <详情>