搜索 导航菜单

AI芯片落地难

[摘要]搭着AI第三次浪潮的 顺风车 ,AI芯片进入产业界的视线。 其实不然,AI的第三次 复苏 是由AI芯片领头的。2016年,业界熟知的谷歌AlphaGo大战
搭着AI第三次浪潮的“顺风车”,AI芯片进入产业界的视线。

其实不然,AI的第三次“复苏”是由AI芯片领头的。2016年,业界熟知的谷歌AlphaGo大战李胜石,背后的TPU(Tensor Processing Units)机器学习芯片功不可没。作为承载机器学习负载的专有芯片,TPU区别于传统意义上的CPU、GPU,比CPU、GPU快几十倍。

2016年,谷歌I/O大会首次发布TPU之后,TPU已经历经多次迭代、升级。2017年,TPU 2.0推出,2018年,TPU 3.0发布,紧接着Cloud TPU、Edge TPU云、边缘开放、发布。

另一边,英伟达以GPU为主线的架构演进也在不断更新,2015年,基于Maxwell架构的GeForce GTX TITAN X发布,作为首款训练深度神经网络的处理器,GeForce GTX TITAN X面向云端,数据处理能力是传统16核CPU的13倍之多。

2016年,基于新一代Pascal架构,英伟达又推出了Tesla P40、Tesla P4、Tesla P100,面向深度学习、神经网络;2017年,基于Volta架构的Tesla V100为高性能计算HPC和AI融合提供可行性路径;2018年,Turing架构推出,新增AI训练和推理Tensor Core,深度学习抗锯齿算法DLAA......

AI正在改变芯片产业。

根据冯·诺依曼架构,运算器与存储器相互分开,指令、数据放置于存储器中,而冯·诺依曼架构瓶颈在于,存储量急剧增加后,CPU与存储之间的数据传输成为阻碍。换句话说,能量大部分耗损于数据在各个“板块”的传输。

所以,AI芯片大致有两个方向,一个基于冯·诺依曼架构,计算、内存是分离的;另外一个,彻底摆脱冯·诺依曼架构,模仿人类神经元的类脑芯片,运算、内存、通信是混合在一起。譬如,IBM的TrueNorth芯片。

类脑芯片刚刚起步,目前,市场上的AI芯片集中于前者。

大而不同

来自美国研究公司ReportLinker数据预测显示,未来5年,全球AI芯片将会进入告诉发展的阶段,2023年,市场规模预计将会达到108亿美元,复合年均增长率达53.6%。涉及的厂商包括谷歌、英特尔、英伟达、高通、微软、AMD、Graphcore、Adapteva等等。

乍一看,市场空间潜力巨大,且无论是巨头厂商,还是初创小公司均属于AI芯片的阵营。实际上,从技术的角度看,这些AI芯片无论是功能分类、部署位置均有所差异。

举个例子,8月23日,华为发布的Ascend 昇腾 910 AI处理器,号称“全球算力最强,速度最快”,相当于50个最新最强的CPU。已实现商用,可广泛应用于无人机、摄像机、机器人等终端。

一个月后,9月25日,阿里2019云栖大会上,阿里巴巴发布了第一颗AI芯片含光800。一颗含光800的算力大致相当于10颗GPU,是全球最高性能的AI推理芯片。同样,含光800已经在阿里巴巴内部核心业务中使用。

Ascend 昇腾 910与含光800的性能让人“迷惑”。其实,两者代表了AI芯片承担不同任务的两个方向:训练、推理。训练需要海量的计算,推理计算量相对较少,但涉及巨大的矩阵运算。

在部署位置上,AI芯片又分为云端、边缘,以及手机、汽车、摄像头、无人机等终端两类。赛迪数据显示,2018年,云端训练AI芯片占比最大,达49.5%;其次,为终端推理AI芯片,占比29.8%;第三是云端推理芯片,占比20.7%。

同时,AI芯片分为CPU、GPU、FPGA、ASIC等不同类型,一般意义上的AI芯片指的是ASIC专用芯片。最早,人们尝试将AI算法应用于传统CPU、GPU,效果不甚理想,特别是,CPU运算是串行的,运算能力不佳。相比较之下,GPU拥有更多的逻辑运算单元,架构更符合AI算法并行计算的特点。

这里不得不提到一家厂商——文章开篇的英伟达。

2012年,ILSVRC(ImageNet Large Scale Visual Recognition Challenge)大赛上,Geoffrey Hinton和学生Alex Krizhevsky用两台NVIDIA GTX580显卡,将自己设计的神经网络AlexNet准确率提高了10%以上,获得第一名。

从此,成立19年的英伟达,开始步入AI深度学习的黄金发展期,从硬件、软件、到生态,英伟达产品都围绕AI训练与学习提高性能。2015 GTC大会上,英伟达教主黄仁勋甚至称,英伟达是AI公司,而不是硬件公司。

但GPU+CUDA(通用并行计算平台)并不是完美的,价格昂贵、高能耗、算力增长不不能满足企业急剧增长的算力需求等,这些成为GPU+AI的掣肘。

另一方面,包括互联网厂商、初创公司在内的企业,相继推出了ASIC、FPGA的AI芯片。企图在后摩尔定律时代,弯道超车。无论是英伟达,还是传统CPU、GPU芯片厂商都进入了AI红利的后期阶段。

来自网络公开数据显示,ASIC无论在市场规模,还是年复合增长率上均比FPGA高。ASIC厂商有谷歌、阿里巴巴、华为等;FPGA厂商有Atmel、Achronix Semiconductor、英特尔、赛灵思Xilinx、深鉴科技等。

如此多的厂商涌入AI芯片的赛道目的各不相同。

落地不是重点

以英特尔为例,近几年,英特尔一直在为未来“买单”,不错过任何战略机遇,从AI周边、自动驾驶、地图到芯片,大大小小的知名、非知名创业公司收入囊中。PC时代,Wintel建立起来的壁垒正在消弭,在移动互联网时代落下的课,需要在AI+云+5G时代补课。

譬如,收购FPGA领域的Altera、Omnitek两家公司;自动驾驶领域的Mobileye;计算机视觉领域的Movidius、Itseez公司。不久前,英特尔收购以色列AI芯片公司Habana Labs传言“实锤”,Habana Labs聚焦于AI推理与训练的芯片。

今年8月,英特尔推出首款AI芯片Nervana NNP-I/T,Nervana NNP-I用于训练,Nervana NNP-T用于推理。英特尔已补齐CPU、GPU、FPGA、ASIC的AI芯片。所以,对于硬件巨头而言,当下弥补短板,找到业务新的可能增长点是“转型”的当务之急。

软件巨头切入市场,逻辑则有所不同,一方面,随着企业发展进入深水区,算力需求海量增加,市场不能满足需求;第二,供给方成本昂贵;第三,AI确实能帮助企业构建云计算平台、数字化转型等等过程中提高效率;第四,与自身业务生态战略相融合;第五,减弱硬件厂商在市场的话语权。

出于五个方面的驱动,在资金实力充足的情况下,谷歌、阿里巴巴、微软、Facebook、IBM等厂商也开始探索、布局AI芯片。从谷歌、阿里巴巴、华为等厂商推出的产品来看,主要面向云端、边缘端的算力需求,而国外的初创公司也大多集中于云边端,譬如,Habana Labs、Graphcore、Groq等。

但仔细观察会发现,除了为数不多的初创企业向巨头云端提供部署方案,包括巨头在内发布的云端、边缘段AI芯片,并没有实现大规模的商用,仅仅初步停留于自家需求。

换句话说,部署在云端的AI芯片厂商获得了资本市场的认可,却没有进一步的大范围落地、商用迹象。

有趣的是,与国外AI芯片市场不同的是,国内AI芯片初创企业回避了巨头所在的云端场景,最初集中在终端一侧。

2016年,寒武纪推出神经网络单元NPU处理器1A。2017年底,地平线发布第一代BPU架构,两款芯片,征程1.0用于智能驾驶;旭日1.0用于智能摄像头。2018年,云天励飞发布了深度学习神经网络DeepEye 1000流片。

2019年初,思必驰发布第一代AI语音芯片TAIHANG深聪,主要应用于智能家居、车载、可穿戴等终端场景中。两个月后,联发科联合旷视Helio P60首次内置人工智能处理器APU。

以上,均为国内初创企业在市场初期终端领域部署的一些情况。可以看出切入各不相同,有从硬件、有的从软件、平台,有的从算法切入市场。

当然,2018年、2019年发生了一些变化,包括寒武纪、依图科技等,均从终端芯片转向云端、边缘端芯片。这一转变契合市场、资本的趋势,但与国外创业企业处境类似,云端、边缘端的芯片多被谷歌、英伟达等巨头所垄断,生存空间逼仄。

国内阿里巴巴、华为、百度也对这一领域虎视眈眈,并有相关产品发布、内部使用。初创企业在资金实力、商用落地方面不占优势。在没有核心竞争力,技术成果不能加速商业化进程的情况下,终局无外乎,被收购,或者提高当前市场估值。

两者的根结,在于商业模式不能形成闭环。

落地又是关键

2018年7月,FPGA头部厂商赛灵思收购了中国初创企业深鉴科技。2019年8月,旷视在港交所递交IPO招股书,招股书显示,2019年上半年,旷视营收为9.49亿元、亏损52亿元。从2016年到2019年上半年,亏损逐年扩大。

深鉴科技、旷视科技映射了整个AI市场的窘境,快融资、技术高速发展期已经过去,“落地”成为摆在AI企业们面前的难题。“落地”究竟有多难?纬度是多方面的。

首先,AI芯片不能违背芯片的发展规律,芯片制造涉及工艺、制程、量产等门槛较高,初创企业没有深厚的积累,对市场判断、客户需求,性能指标可能存在试错的过程。

尚且不谈AI芯片中“内存墙”,性能质量问题,是否为”PPT芯片“、量产等问题能否解决依然需要打一个问号。驭势科技创始人吴甘沙曾在南都采访中也谈到当前AI芯片市场创业企业众多的原因,“一方面,AI芯片的门槛比通用芯片门槛低,另一方面,目前大多数都说可以做出来AI芯片的厂商,但能否用得好,能不能大批量卖出去还有待时间验证。”

第二,AI芯片能否大面积铺开,还要看场景的成熟度。以自动驾驶为例,自动驾驶涉及产业链上下游环节非常多,车企、高精地图、ADAS、激光雷达、摄像头、传感器、网络基础设施,车联网V2X等,特别是,基础设施层面,包括V2V(汽车与汽车)、V2I(汽车与基础设施)、V2R(汽车与路侧设备)、V2P(汽车与行人)等多个场景方案一直未定型。

第三,AI芯片厂商需要有核心的竞争能力,从架构创新到商业模式、切入角度的创新,需要“黑马”企业破局。

更重要的还在于生态。尽管,AI芯片发展历程在各方面与GPU、CPU等相比,时间较短,是一个“崭新”,相对公平的赛道。但仅仅有硬件、软件是不够的,“软件定义硬件”意味着硬件需求端发生变化,有了新的要求,软件将会反过来影响硬件的设计,软件与硬件需要相互协同。

所以,算法、软件对AI芯片的重要性也越来越高。

英伟达公布2020财年Q3财报后,CEO黄仁勋在接受外媒GamesBeat采访时,谈到芯片上软件堆栈的难度:“深度学习的挑战之一在于软件非常丰富,是否是正确的数据、模型、超参数,需要慢慢学习。训练方面,让人们信任看不见的复杂系统障碍很大,推理方面,模型种类太多。下一步发展到多模型、多领域将会更难。”

几天前,腾讯投资的初创企业燧原科技发布了面向云端数据中心的AI训练芯片邃思、加速卡“云燧T10”。

可见,在市场需求、销量“黑盒”化的情况下,这一赛道的加码依然在继续。

但AI芯片从技术到落地再到市场普及,没有那么容易,或许仍需要一段漫长的路程,至少相当一部分AI芯片企业,尤其是创业企业,将长时间停留在“落地”之前。




版权声明:

凡本网注明”来源:中国优德w88app官网(http://www.soft6.com)”的所有作品,版权均属于中国优德w88app官网或昆仑海比(北京)信息技术有限公司,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

任何行业、传播媒体转载、摘编中国优德w88app官网(http://www.soft6.com)刊登、发布的产品信息及新闻文章,必须按有关规定向本网站载明的相应著作权人支付报酬并在其网站上注明真实作者和真实出处,且转载、摘编不得超过本网站刊登、转载该信息的范围;未经本网站的明确书面许可,任何人不得复制或在非本网站所属的服务器上做镜像。

本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,昆仑海比(北京)信息技术有限公司将追究其相关法律责任。
微信公众号 微信公众号