hb1

近几年来关于AI的应用非常广泛,遍布在各个领域,从早期的键盘、鼠标到触屏,到如今可以通过语音识别等技术实现跟机器人自然交互,或者说我们正处在一个AI的时代。

人工智能的研究由来已久,早期时候更多是依靠专家,根据他们自己的经验来告诉机器,机器在定义好的规则里做一些搜索。这个是依赖专家的经验。2006年以后,随着数据量和硬件计算能力的大幅度提升,人们开始尝试直接将数据交给计算机,让计算机自己在里面做搜索。算法是核心,硬件和数据是基础。

深度学习作为人工智能的核心技术,通过模仿人类大脑的神经机制来分析和解释数据,例如图像、声音、文本。但是人的大脑本身并没有成熟的规则,这一切是通过神经元触发实现的。DNN、CNN、RNN是目前常用的几种神经网络算法分类,TensorFlow、Caffe是几种常用的深度学习框架。

神经网络包含输入层、输出层和隐藏层,每层都包含若干个神经元,神经元之间通过权重参数进行计算,如同形成了一个巨大的神经网络。用一个简单的例子说明一下深度学习训练和预测过程,这是一个图像识别,我们的目标是构建一个神经网络的模型,来实现对图片信息的准确识别。预测是我们最终目的,为了实现最终目的,我们需要数据,将数据做上标签,经过神经网络的前向计算,产生类别,将这个类别与标签的类别做比较,将结构反推给神经网络,如此反复。

下面聊一下AI芯片。大家知道非常著名的摩尔定律,每隔18个月相同成本下,芯片的晶体管数量会翻一番,相应的计算性能也将提升1倍。随着晶体管的体积逐渐接近物理极限,或许在将来摩尔定律会面临失效。在AI领域随着数据量和计算量暴增,我们对计算性能有了更高的追求,于是大家开始寻找计算之外的,比如GPU、FPGA、AISC。GPU没有那么多的控制器件,取而代之的是大量的计算核心,GPU有了远超CPU的大规模数据运算能力。FPGA和CPU、GPU不同,功耗也比GPU要低,ASIC性能提升是以牺牲通用性为代价。有关异构平台广泛存在,大到数据中心,小到手机、平板、可穿戴设备。用CPU+来描述异构平台,CPU+GPU、CPU+FPGA、CPU+TPU等。

最后说一下计算平台的选择,从现阶段看,受益于各个框架对GPU的良好支持,我们对GPU的需求也从最初的单机单卡发展到单机多卡到现在的多机多卡。Inference端会选择CPU+GPU或者CPU+FPGA/ASIC,FPGA同时拥有流水线并行和数据并行,ASIC兼具高吞吐量、低延迟、低功耗的特性。

就分享这么多,谢谢大家。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56