AI芯片角逐刚刚开始,但未来只属于少数玩家澳门

3.基于PE阵列的MIT Eyeriss芯片架构。功耗为278毫瓦。

实际上,AI芯片的研发有两个不同的方向:第一,在现有的计算架构上添加专用加速器,即“AI加速芯片”,它是确定性地加速某类特定的算法或任务,从而达到目标应用领域对速度、功耗、内存占用和部署成本等方面的要求。

2014年4月,Nervana以打造“深度学习专用硬件”为主营业务正式成立,从成立之初到三轮共2050万美元融资,到被英特尔收购。三年半时间,终于去年10月公布了Nervana NNP系列初代芯片“Lake Crest”,于去年年底开始出货。

澳门新葡萄京娱乐网站 1

人工智能的崛起有三个基本要素:算法、数据和算力。当云计算广泛应用,深度学习成为当下AI研究和运用的主流方式时,AI对算力的要求正快速提升。对AI芯片的持续深耕,就是对算力的不懈追求。

文章来源:与非网

澳门新葡萄京娱乐网站 2

目前主流的AI芯片采用的是冯诺依曼架构。在冯·诺伊曼体系结构中,芯片在计算上是采取1进1出的方式,数据从处理单元外的存储器提取,处理完之后在写回存储器,如此依序读取完成任务。由于运算部件和存储部件存在速度差异,当运算能力达到一定程度,访问存储器的速度无法跟上运算部件消耗数据的速度,再增加运算部件也无法得到充分利用,这不仅是AI芯片在实现中的瓶颈,也是长期困扰计算机体系结构的难题。

但面对英伟达频频推出“核弹”,英特尔和AMD开始了合作牵制策略。去年11月,AMD和英特尔又联手向英伟达发起挑战,正式宣布联手推出集成英特尔处理器和AMD图形处理器的用于轻薄便携笔记本电脑芯片。

地位说

AI芯片领域玩家众多,作品也在不断更新迭代。然而,到目前为止,完全符合描述和基准测试的AI芯片寥寥无几。即便是谷歌的TPU,也不足以支撑起AI更为长远的发展。

AMD此次公开展示的全球首款7纳米制程的GPU芯片原型是对这个预言的应验。这款含有32GB高带宽内存的芯片,专为人工智能和深度学习设计,用于工作站和服务器。

李教授指出, Neuromorphic研究成果基本集中在计算能力和性能上。而在1998年,卷积(深度)神经网络之所以没有流行是因为其在初期需要进行大量计算,但当时的芯片工艺几乎不可完成,之后我们也可以看到英特尔和英伟达计算力的提升基本与芯片工艺的尺寸成正比,因此卷积(深度)神经网络能够在如今大规模发展完全得益于片上系统的高性能计算,没有纳米级IC支撑,网络很难真正实用化

不过,对于很多初创企业而言,研发芯片将要面临时间和资金上的巨大挑战。在时间上,芯片研发从立项到上市通常需要两年左右的时间。相较之下,更重要的一点是芯片成本很高。

前Nervana CEO、英特尔全球副总裁兼人工智能产品事业部总经理 Naveen Rao

传统处理器市场,由英特尔,AMD,IBM等企业垄断;存储器领域,三星和海力士主导;在image sensor(图像传感器)细分领域中,日本索尼则排位第一,而AI芯片方面(ISSCC2018没有称之为AI芯片,而是将概念扩展为Neuromorphic类脑计算),近年来美国,韩国,日本,欧洲都在不断发力人工智能芯片市场,美韩两国具有领先优势,而国内研究则有待加强。

AI的发展还处于起步阶段,AI芯片也主要是朝“AI加速芯片”这个方向前行。人工智能计算发展大致需要经历三个阶段:传统智能计算、基于深度学习的智能计算、基于神经拟态的智能计算。而对于针对第三个阶段的神经拟态芯片,目前鲜少有企业涉及。要在未来成为主流还有相当长的一段路要走。不过,英特尔已在2018年国际消费电子展上展示出了Loihi,这是一种基于14nm的新型神经拟态计算芯片,采用异构设计,由128个Neuromorphic Core 3个低功耗的英特尔X86核心组成,号称拥有13万个神经元和1.3亿个触突。

IBM:DNN算力是GPU100倍

AI芯片的主流架构有哪些

而从长远来看,AI芯片本身的技术发展还要面临如下的困境。

AMD:与英特尔合作牵制英伟达

李教授还在最后提及了神经网络的未来发展方向:云端深度学习神经网络处理器,终端深度学习神经网络处理器,神经拟态处理器。返回搜狐,查看更多

尽管AI芯片市场的增长空间很大,但未必能够容得下足够多的企业。行业本身的特性以及当下AI所处的发展阶段,都决定了AI芯片企业会有一个相对较长的挫折期,而在此过程中,被资本炒出的泡沫也会随之压缩。

在自动驾驶领域,英伟达的“DRIVE”系列也是各个性能爆表。去年10月,发布了“DRIVE PX Pegasus”自动驾驶平台,载了两颗Xavier芯片,以及Volta架构GPU,高配置让其拥有了高达320 TOPS的深度学习处理能力,这个数值是上一代DRIVE PX平台的数倍。而仅仅在两个月后的“CES 2018”上,黄教主在主题演讲中展示了NVIDIA最新的自动驾驶技术“DRIVE XAVIER”,在各种“核弹”级参数下,这款芯片在2018年Q1开始流片。

澳门新葡萄京娱乐网站 3

“智能芯片”仍处于初期开发阶段,不适合商业应用。因此,企业们目前主要采用的方法是在现有的计算架构上添加人工智能加速器。AI加速芯片的研发也分为两种主要的方式:一种是利用已有的GPU、众核处理器、DSP、FPGA芯片来做软硬件优化;另一种则是设计专用的芯片,也就是ASIC。

英特尔:深度学习训练性能提升100倍

李洪革在演讲中首先对比了近年来全球集成电路的整体市场情况,在2018年上半年全球集成电路市场,全球Top15企业排行中,美国依然是主场,美国企业控制了60%的市场,而韩国,日本,中国台湾,欧洲则各自为营排列其后,进一步表明集成电路相关顶级产品依然是由国外垄断和控制。

目前,在摩尔定律的驱动下,CPU可以在合理的算力、价格、功耗和时间内为人工智能提供所需的计算性能。但AI的许多数据处理涉及矩阵乘法和加法,而CPU的设计与优化是针对成百上千种工作任务进行的,所以用CPU来执行AI算法,其内部大量的其他逻辑对目前的AI算法来说是完全浪费的,无法让CPU达到最佳的性价比。而面对爆发式的计算需求,通用芯片将更加无以为继。

AMD首席执行官Lisa Su展示最新的7nm GPU

2.IBM提出的Truenorth神经拟态处理器。完全基于人脑架构制成的类脑计算,功耗仅为65毫瓦。

澳门新葡萄京娱乐网站 4

据黄教主介绍说,“Volta”系列的“创生”主要为推动高性能计算和人工智能的极限:“我们用新的处理器架构、指令、数字格式,以及存储器架构等打开新的局面。”

各领域芯片产业界的地位

高昂的开发费用,加上以年计算的开发周期,AI芯片企业在融资的早期阶段就需要大量资金浥注,这样才能撑过没有产品销售的阶段。而政府的补助和投资者的资金,往往会倾向于那些销售业绩好的公司。且资本市场希望能有一个较短的投资周期。因此,融资也成为一道门槛。

据了解,这款神经网络处理器的设计目的是为了快速解决AI应用遇到的数学问题,特别是神经网络,是目前比较流行的机器学习技术分支。

全球芯片战场概览

另外,要满足人工智能发展所需的运算能力,就需要在CMOS工艺上缩小集成尺寸,不断提高芯片的系统性能。如今,7nm已经开始量产,5 nm节点的技术定义已经完成。但由此也产生了CMOS 工艺和器件方面的瓶颈。首先,由于纳米级晶体管所消耗的能量非常高,这使得芯片密集封装的实现难度很大。其次,一个几纳米的CMOS器件,其层厚度只有几个原子层,这样的厚度极易导致电流泄漏,而工艺尺寸缩小所带来的效果也会因此受到影响。

作为Issac项目的嵌入式硬件平台,Jetson主要面对的应用场景是机器人。相较于此前TX1、TX2型号,加了“Xavier”的Jetson含了六颗处理器,每秒可执行30万亿次操作。

原标题:【人工智能芯片篇】探索类脑计算及芯片架构

在人工智能应用领域,依据芯片的部署位置和任务需求,会采用不同的制程。在一般情况下,终端设备的芯片经常会采用65nm和28nm制程;边缘端和部分移动端设备的芯片,制程基本为16nm或10nm;而云端芯片通常是7nm。

对于英特尔来说,想要在巨头扎堆的AI芯片战场上站稳脚跟并不容易。PC时代,英特尔以90%的市场份额几乎完全垄断了CPU市场,但随着GPU和各类可替代处理器的不断推陈出新,CPU的市场开始萎缩。

澳门新葡萄京娱乐网站 5

芯片制程决定开发成本。根据IBS的估算数据,按照不同制程,65nm芯片开发费用为2850万美元,5nm芯片开发费用则达到了54220万美元。因此,在芯片的研发上,错误的容忍几乎是零。目前,较为成熟的是40nm和55nm工艺,而对于当下先进的7nm工艺,很多企业的技术还不够成熟。

本月初,英伟达正式发布了全新AI芯片“Jetson Xavier”,在CEO黄仁勋看来:“这台小电脑,将成为未来机器人的大脑”,将该芯片的使用范围清晰定义在机器人领域。

澳门新葡萄京娱乐网站 6

ASIC是一种为特定目的、面向特定用户需求设计的定制芯片,性能强、体积小、功耗低、可靠性高。在大规模量产的情况下,还具备成本低的特点。近年来,越来越多的公司开始采用ASIC芯片进行深度学习算法加速,其中表现最为突出的就是TPU。这是谷歌为提升AI计算能力同时大幅降低功耗,专为机器学习全定制的人工智能加速器专用芯片,性能非常出众。此外,国内企业寒武纪开发的Cambricon系列处理器也广泛受到了关注。ASIC的全球市场规模从2012年的163亿美元增长到2017年257亿美元,预计今后5年保持18.4%年复合增长,到2022年达到597亿美元,目前,市场格局还比较碎片化。

英伟达:Titan DRIVE Jetson

7.2014年中科院设计的Diannao芯片。

第二,完全重新开发,创造模拟人脑神经网络的全新架构,即“智能芯片”。它让芯片像人一样能使用不同的AI算法进行学习和推导,处理包含感知、理解、分析、决策和行动的一系列任务,并且具有适应场景变化的能力。目前,这类芯片的设计方法有两种:一种是基于类脑计算的“神经拟态芯片”;另一种是基于可重构计算的“软件定义芯片”。

IBM在最近发表在Nature上的一篇论文中表示说,IBM Research AI团队用大规模的模拟存储器阵列训练深度神经网络,达到了与GPU相当的精度。

澳门新葡萄京娱乐网站 7

澳门新葡萄京娱乐网站 8

英特尔的目标是,到2020年将深度学习训练的性能提升100倍,具体实现路径是通过Crest的家族,与前代相比,新一代芯片将实现3-4倍的训练性能。

澳门新葡萄京娱乐网站 9

AI芯片方向众多,企业集中于“初级”赛道

在此基础上,本次AI开发者大会上Naveen Rao公开了英特尔新一代AI芯——英特尔Nervana NNP-L1000,代号为“Spring Crest”的专用人工智能芯片,与“Lake Crest”只供应给一小部分英特尔合作伙伴不同,“Spring Crest”成为英特尔第一款商用神经网络处理器,并计划在2019年发布。

  • 传统集成电路芯片可以放置在Amp,RF,ADC上,它们在芯片市场份额占比达22%;
  • 存储器(DRAM,SRAM等),以三星,美光,海力士为代表,所占份额达到29%;
  • 传统CPU,英特尔依然是一头独大,AMD最近也逐渐被边缘化,其在芯片市场占比22%;
  • 以ARM为核心所诞生的移动处理器市场潜力巨大,由高通,苹果,博通等巨头领衔,在芯片市场占比16%;
  • 在上周五,华为宣布推出7纳米的AI芯片,这意味着华为已将AI CPU,列为与CPU,GPU并行的第三个处理单元,未来市场趋势是否会向AI CPU倾斜,需要时间来验证。

GPU、FPGA以及ASIC已成为当前AI芯片行业的主流。其中GPU算是目前市场上AI计算最成熟、应用最广泛的通用型芯片了,这是一种由大量核心组成的大规模并行计算架构,专为同时处理多重任务而设计的芯片。GPU桌面和服务器市场主要由英伟达、AMD瓜分,移动市场以高通、苹果、联发科等众多公司为主。

5月下旬,在英特尔首届AI开发者大会上,其全球副总裁兼人工智能产品事业部总经理Naveen Rao表示,英特尔正在开发第一个商用神经网络处理器产品英特尔Nervana NNP-L1000,计划在2019年发布。据他表示,该芯片相较于去年10月推出的代号为“Lake Crest”专用人工智能芯片NNP优化实现3-4倍的训练性能。

1.谷歌TPU。延用了传统的CPU和GPU技术,但通过一些技术的差异化及缺陷调整,性能快了15-30倍,采用28纳米制程工艺。不过计算方式仍是标准的冯诺依曼体系架构,即数据流与控制流独立并行的架构。优势是进行包括MLP,CNN,RNN的多层计算。

AI芯片市场空间巨大,未必能容纳得下大量玩家

分析人士称,AMD、英特尔、英伟达未来的竞争主要在人工智能领域。

6.佐治亚理工设计的芯片架构。

因此,具有海量并行计算能力、能够加速AI计算的AI芯片应运而生。面对不断增多的B端应用场景,越来越多的AI芯片公司加入角逐。

据了解,打造这款芯片足足耗费了五年的时间——三年设计、两年筑造,共有超过8000人参与了设计与开发,是Nvidia单独做过的最长的处理器项目。它的处理能力与配备了10万美元GPU的工作站大致相同,但功率仅为30瓦。当前Nvidia的技术,已经被一些企业用于自主仓库机器人、机器采摘和农业机器人。

5.韩国科技技术院(KAIST)设计的芯片架构。

澳门新葡萄京娱乐网站 10

去年12月,英伟达推出了重磅产品“Titan V”PC GPU,该款GPU拥有110万亿次浮点运算性能,是其去年4月份公布的架构Titan Xp的9倍,和用于数据中心的英伟达Tesla V100 GPU一样,Titan V也更加清晰地面向AI。

澳门新葡萄京娱乐网站 11

FPGA集成了大量的基本门电路以及存储器,其灵活性介于CPU、GPU等通用处理器和专用集成电路ASIC之间。我国在这方面刚刚起步,与FPGA四大巨头赛灵思、英特尔、莱迪思、美高森美存在着巨大的差距。从市场份额来看,赛灵思和英特尔合计占到市场的90%左右,其中赛灵思超过50%。2017年,FPGA的全球市场规模为59.6亿美元,预计到2023年将达到98.0亿美元。

正是发现了这一趋势,英特尔也开始依托产业平台转型,争取搭上人工智能的未来浪潮。收购“Nervana”便是浓墨重彩的一笔。

4.哈佛为DNN加速设计的芯片架构。采用稀疏矩阵,算法和架构有了质的变化。采用28纳米技术,功耗达到23.5毫瓦。

此外,由于芯片开发周期通常需要1-3年的时间,在正常的时间里软件会有一个非常快速的发展,但算法在这个期间内也将会快速更新,芯片如何支持这些更新也是难点。

IBM在近日提出了全新的芯片设计,可以通过在数据存储的位置执行计算来加速全连接神经网络的训练。

澳门新葡萄京娱乐网站 12

根据Gartner的预测数据,全球人工智能芯片市场规模将在未来五年内呈现飙升, 从2018年的42.7亿美元成长至343亿美元,增长超过7倍,可以说,未来AI芯片市场将有一个很大的增长空间。

据了解,Vega性能相比上一代节点性能提高35%,能效提高两倍,密度也翻了一番。

澳门新葡萄京娱乐网站 13

澳门新葡萄京娱乐网站 14

责任编辑:

无论在CPU还是GPU的市场份额上,AMD在短期内都无法撼动英特尔和英伟达的行业霸主地位。

澳门新葡萄京娱乐网站 15

AMD近日公开了全球首款7纳米制程,名为“Radeon Vega”的GPU芯片原型。

未来,深度学习神经网络的角力场将会是医疗诊断,金融服务,图像识别,工业机器人,无人驾驶,人机博弈方面

用GPU运行神经网络的方法近年来已经通行人工智能领域,然而两者的组合其实并不完美。IBM 研究人员希望专门为神经网络设计一种新芯片,使前者运行能够更快、更有效,据研究人员称,IBM全新芯片可以达到GPU 280倍的能源效率,并在同样面积上实现100倍的算力。

2018年9月1日上午,在第十四届南京软件博览会专场活动——“人工智能芯片的未来”高峰论坛中, 北京航空航天大学教授李洪革发表了名为《类脑计算及芯片架构》的主题演讲。

澳门新葡萄京娱乐网站 16

深度学习神经网络主要由三层组成,前两层是全连接和输出层,是标准的双层BP网络。其区别在于后面增加了N层卷积计算层来进行特征提取。DNN由微软从5层拓展到152层来增强计算力,其中卷积计算就消耗了90%以上的计算和运行资源。但相比之前,耗时耗力的利用软件方式进行特征提取再放置到网络进行特征分类,也实在是简单粗暴。

人工智能的新一轮热点是完全基于传统神经网络的计算兴起,因此李教授科普了神经网络的发展历史。

澳门新葡萄京娱乐网站 17

本文由北京28官网发布于科学技术,转载请注明出处:AI芯片角逐刚刚开始,但未来只属于少数玩家澳门