您的位置:www.85058.com > 技术支持 > AI芯片角逐刚刚开始,但未来只属于少数玩家ww

AI芯片角逐刚刚开始,但未来只属于少数玩家ww

发布时间:2019-11-16 15:14编辑:技术支持浏览(92)

    责任编辑:

    www.85058.com 1

    原标题:【人工智能芯片篇】探索类脑计算及芯片架构

    FPGA集成了大量的基本门电路以及存储器,其灵活性介于CPU、GPU等通用处理器和专用集成电路ASIC之间。我国在这方面刚刚起步,与FPGA四大巨头赛灵思、英特尔、莱迪思、美高森美存在着巨大的差距。从市场份额来看,赛灵思和英特尔合计占到市场的90%左右,其中赛灵思超过50%。2017年,FPGA的全球市场规模为59.6亿美元,预计到2023年将达到98.0亿美元。

    2018年9月1日上午,在第十四届南京软件博览会专场活动——“人工智能芯片的未来”高峰论坛中, 北京航空航天大学教授李洪革发表了名为《类脑计算及芯片架构》的主题演讲。

    在人工智能应用领域,依据芯片的部署位置和任务需求,会采用不同的制程。在一般情况下,终端设备的芯片经常会采用65nm和28nm制程;边缘端和部分移动端设备的芯片,制程基本为16nm或10nm;而云端芯片通常是7nm。

    www.85058.com 2

    www.85058.com 3

    AI芯片的主流架构有哪些

    此外,由于芯片开发周期通常需要1-3年的时间,在正常的时间里软件会有一个非常快速的发展,但算法在这个期间内也将会快速更新,芯片如何支持这些更新也是难点。

    李教授指出, Neuromorphic研究成果基本集中在计算能力和性能上。而在1998年,卷积(深度)神经网络之所以没有流行是因为其在初期需要进行大量计算,但当时的芯片工艺几乎不可完成,之后我们也可以看到英特尔和英伟达计算力的提升基本与芯片工艺的尺寸成正比,因此卷积(深度)神经网络能够在如今大规模发展完全得益于片上系统的高性能计算,没有纳米级IC支撑,网络很难真正实用化

    GPU、FPGA以及ASIC已成为当前AI芯片行业的主流。其中GPU算是目前市场上AI计算最成熟、应用最广泛的通用型芯片了,这是一种由大量核心组成的大规模并行计算架构,专为同时处理多重任务而设计的芯片。GPU桌面和服务器市场主要由英伟达、AMD瓜分,移动市场以高通、苹果、联发科等众多公司为主。

    传统处理器市场,由英特尔,AMD,IBM等企业垄断;存储器领域,三星和海力士主导;在image sensor(图像传感器)细分领域中,日本索尼则排位第一,而AI芯片方面(ISSCC2018没有称之为AI芯片,而是将概念扩展为Neuromorphic类脑计算),近年来美国,韩国,日本,欧洲都在不断发力人工智能芯片市场,美韩两国具有领先优势,而国内研究则有待加强。

    芯片制程决定开发成本。根据IBS的估算数据,按照不同制程,65nm芯片开发费用为2850万美元,5nm芯片开发费用则达到了54220万美元。因此,在芯片的研发上,错误的容忍几乎是零。目前,较为成熟的是40nm和55nm工艺,而对于当下先进的7nm工艺,很多企业的技术还不够成熟。

    5.韩国科技技术院(KAIST)设计的芯片架构。

    而从长远来看,AI芯片本身的技术发展还要面临如下的困境。

    www.85058.com 4

    人工智能的崛起有三个基本要素:算法、数据和算力。当云计算广泛应用,深度学习成为当下AI研究和运用的主流方式时,AI对算力的要求正快速提升。对AI芯片的持续深耕,就是对算力的不懈追求。

    人工智能的新一轮热点是完全基于传统神经网络的计算兴起,因此李教授科普了神经网络的发展历史。

    “智能芯片”仍处于初期开发阶段,不适合商业应用。因此,企业们目前主要采用的方法是在现有的计算架构上添加人工智能加速器。AI加速芯片的研发也分为两种主要的方式:一种是利用已有的GPU、众核处理器、DSP、FPGA芯片来做软硬件优化;另一种则是设计专用的芯片,也就是ASIC。

    www.85058.com 5

    因此,具有海量并行计算能力、能够加速AI计算的AI芯片应运而生。面对不断增多的B端应用场景,越来越多的AI芯片公司加入角逐。

    www.85058.com 6

    目前主流的AI芯片采用的是冯诺依曼架构。在冯·诺伊曼体系结构中,芯片在计算上是采取1进1出的方式,数据从处理单元外的存储器提取,处理完之后在写回存储器,如此依序读取完成任务。由于运算部件和存储部件存在速度差异,当运算能力达到一定程度,访问存储器的速度无法跟上运算部件消耗数据的速度,再增加运算部件也无法得到充分利用,这不仅是AI芯片在实现中的瓶颈,也是长期困扰计算机体系结构的难题。

    各领域芯片产业界的地位

    另外,要满足人工智能发展所需的运算能力,就需要在CMOS工艺上缩小集成尺寸,不断提高芯片的系统性能。如今,7nm已经开始量产,5 nm节点的技术定义已经完成。但由此也产生了CMOS 工艺和器件方面的瓶颈。首先,由于纳米级晶体管所消耗的能量非常高,这使得芯片密集封装的实现难度很大。其次,一个几纳米的CMOS器件,其层厚度只有几个原子层,这样的厚度极易导致电流泄漏,而工艺尺寸缩小所带来的效果也会因此受到影响。

    未来,深度学习神经网络的角力场将会是医疗诊断,金融服务,图像识别,工业机器人,无人驾驶,人机博弈方面

    ASIC是一种为特定目的、面向特定用户需求设计的定制芯片,性能强、体积小、功耗低、可靠性高。在大规模量产的情况下,还具备成本低的特点。近年来,越来越多的公司开始采用ASIC芯片进行深度学习算法加速,其中表现最为突出的就是TPU。这是谷歌为提升AI计算能力同时大幅降低功耗,专为机器学习全定制的人工智能加速器专用芯片,性能非常出众。此外,国内企业寒武纪开发的Cambricon系列处理器也广泛受到了关注。ASIC的全球市场规模从2012年的163亿美元增长到2017年257亿美元,预计今后5年保持18.4%年复合增长,到2022年达到597亿美元,目前,市场格局还比较碎片化。

    深度学习神经网络主要由三层组成,前两层是全连接和输出层,是标准的双层BP网络。其区别在于后面增加了N层卷积计算层来进行特征提取。DNN由微软从5层拓展到152层来增强计算力,其中卷积计算就消耗了90%以上的计算和运行资源。但相比之前,耗时耗力的利用软件方式进行特征提取再放置到网络进行特征分类,也实在是简单粗暴。

    根据Gartner的预测数据,全球人工智能芯片市场规模将在未来五年内呈现飙升, 从2018年的42.7亿美元成长至343亿美元,增长超过7倍,可以说,未来AI芯片市场将有一个很大的增长空间。

    4.哈佛为DNN加速设计的芯片架构。采用稀疏矩阵,算法和架构有了质的变化。采用28纳米技术,功耗达到23.5毫瓦。

    目前,在摩尔定律的驱动下,CPU可以在合理的算力、价格、功耗和时间内为人工智能提供所需的计算性能。但AI的许多数据处理涉及矩阵乘法和加法,而CPU的设计与优化是针对成百上千种工作任务进行的,所以用CPU来执行AI算法,其内部大量的其他逻辑对目前的AI算法来说是完全浪费的,无法让CPU达到最佳的性价比。而面对爆发式的计算需求,通用芯片将更加无以为继。

    www.85058.com 7

    第二,完全重新开发,创造模拟人脑神经网络的全新架构,即“智能芯片”。它让芯片像人一样能使用不同的AI算法进行学习和推导,处理包含感知、理解、分析、决策和行动的一系列任务,并且具有适应场景变化的能力。目前,这类芯片的设计方法有两种:一种是基于类脑计算的“神经拟态芯片”;另一种是基于可重构计算的“软件定义芯片”。

    李教授还在最后提及了神经网络的未来发展方向:云端深度学习神经网络处理器,终端深度学习神经网络处理器,神经拟态处理器。返回搜狐,查看更多

    尽管AI芯片市场的增长空间很大,但未必能够容得下足够多的企业。行业本身的特性以及当下AI所处的发展阶段,都决定了AI芯片企业会有一个相对较长的挫折期,而在此过程中,被资本炒出的泡沫也会随之压缩。

    本文由www.85058.com发布于技术支持,转载请注明出处:AI芯片角逐刚刚开始,但未来只属于少数玩家ww

    关键词: