2018年国外人工智能芯片发展综述

【编者按】作为技术的重要物理基础,拥有巨大的产业价值和战略地位。但从大趋势来看,目前人工智能芯片发展尚处于的初级阶段,无论是科研还是产业应用都有巨大的创新空间。

近年来,由于大数据产业的发展,数据量呈现爆炸性增长态势,而传统的计算架构又无法支撑深度学习的大规模并行计算需求,于是研究界对人工智能芯片进行了新一轮的技术研发与应用研究。人工智能芯片作为终端实现人工智能算法的载体,是实现人工智能技术创新的重要基础;同时,作为人工智能时代的技术核心之一,决定了平台的基础架构和发展生态。

2018年12月,gartner发布了《预测2019:人工智能与未来工作》报告,对人工智能科技未来七大及其对工作的影响进行分析探讨,人工智能芯片位列其中。人工智能芯片作为当前衡量一个国家科技发展水平及实力的重要参考标准,一直以来都受到了广泛的关注。

以谷歌、微软、英特尔、脸书为代表的科技巨头争相加大在人工智能芯片领域的布局。截至2018年5月,全球至少有60家初创公司在研发语音交互和自动驾驶人工智能芯片、至少有5家企业已经获得超过1亿美元的融资;根据国际权威基金评级机构morningstar预测,到2021年,全球人工智能规模可能超过200亿美元。

人工智能技术催动芯片市场爆发

当前正处于“后摩尔定律时代”,和万物智能得以实现,核心推动力量来自半导体产业,数百亿智能设备连接网络,用于数据采集的物联网芯片和高性能人工智能芯片需求剧增,因万物互联采集海量数据,经数据中心构造的云端对数据进行处理,从而带动整个半导体发展。

伴随着大数据的发展,计算能力的提升,人工智能近年迎来了新一轮的爆发。谷歌、脸书、微软、亚马逊等国外各大科技巨头公司已纷纷推出了自己的人工智能芯片,预计2020年有望突破百亿大关,发展空间巨大。而各科技巨头司都在探索不同类型的人工智能芯片专用架构:谷歌拥有张量处理单元(tpu),每个芯片具备一个核心和用软件控制的内存(而非缓存);英伟达的gpu则拥有80多个内核;微软正在走fpga的路线;英特尔则在所有类型的人工智能芯片专用架构上都有布局,为机器学习推销传统的cpu,收购altera和nervana,前者专注于fpag,后者专注于神经网络专用处理器(类似于谷歌的tpu),当前已经进入计算系统结构的黄金时代。2018年,几乎每个月,主流科技公司推出的定制人工智能芯片项目数量都会较上个月有所增加。

(一)英特尔方面,在芯片产业布局上,英特尔在2018年进行了一系列收购,加速开发更新型的芯片。2018年7月,英特尔收购物联网芯片组厂商easic;2018年9月,英特尔收购netspeed systems,继续布局专用片上系统(soc)芯片产业。英特尔正在开发越来越多样化的soc芯片产品,包括各种专用soc,如movidius vpu和fpga。此外,英特尔在2018年展示了首款14纳米独立gpu原型,并确认其首款独立gpu最早将于2020年问世。

(二)谷歌方面,2018年2月,谷歌开放cloud tpu,专为加速、扩展特定的tensorflow机器学习工作负载而优化。2018年5月,在google i/o 2018开发者大会期间,谷歌正式发布了第三代人工智能学习专用处理器tpu 3.0。tpu 3.0采用8位低精度计算以节省晶体管数量,对精度影响很小但可以大幅节约功耗、加快速度,同时还有脉动阵列设计,优化矩阵乘法与卷积运算,并使用更大的片上内存,减少对系统内存的依赖;速度能加快到最高每秒1000万亿次浮点计算。

(三)英伟达方面,2018年3月,英伟达推出了一个更新的、全面优化的软件堆栈,还公布了其全球领先的深度学习计算平台所取得的一系列重要进展,包括nvidia tesla v100(宣称是最强大的数据中心gpu)的2倍内存提升,以及革命性的全新gpu互联结构nvidia nvswitch,它可使多达16个tesla v100 gpu同时以2.4 tb /秒的速度进行通信,这一速度创下历史新高(相较于半年前发布的上一代产品,其深度学习工作负载性能实现了10倍提升)。

(四)超威半导体(amd)方面,2018年6月,amd公开展示了全球首款7纳米制程的gpu芯片原型,含有32gb的高带宽内存,专为人工智能和深度学习设计,用于工作站和服务器;2018年11月,amd发布了基于7纳米工艺的升级版vega架构核心,也是全球首个7纳米gpu。7纳米vega核心集成了132亿个晶体管,比14纳米vega(125亿个晶体管)增加了6.4%,而核心面积为331平方毫米,比现在的484平方毫米缩小了31.6%,晶体管密度翻了一番。同等功耗下,新核心性能提升超过25%;而同等频率下,新核心功耗降低50%。

(五)苹果方面,苹果公司在2018年9月发布的新款iphone系列手机均搭载了a12仿生芯片。a12仿生芯片由4核gpu、6核cpu和神经网络引擎构成,内有69亿个晶体管,性能非常卓越,被认为是当时“智能手机中最智能、功能最强大的芯片”,其每秒运算数据达到了5万亿次,比2017年推出的a11提高733%,新的iphone机器学习速度提升了9倍。

(六)国际商用机器(ibm)公司方面,2018年6月,ibm research 人工智能团队利用大规模的模拟存储器阵列训练深度神经网络,达到了与gpu相当的精度,被认为是在下一次人工智能突破所需要的硬件加速器发展道路上迈出的重要一步,相关成果发表在《自然(nature)》期刊上。

“边缘侧智能”发力,人工智能芯片与物联网的紧密结合成为亮点

2018年12月,gartner发布的《预测2019:人工智能与未来工作》报告重点提及“边缘计算(edge computing)”的潜力与应用价值。近年来,计算工作负载一直在迁移:首先是从本地数据中心迁移到云,现在越来越多地从云数据中心迁移到更靠近正在处理的数据源的“边缘”位置,旨在通过缩短数据传输距离来提高应用和服务的性能和可靠性,降低运行成本,从而减少带宽和延迟问题。

gartner数据显示,到2025年,80%的企业将关闭其传统数据中心,而2018年则为10%;markets and markets数据显示,到2022年,边缘计算市场的价值将达到67.2亿美元,高于2017年的14.7亿美元,年复合增长率35.4%,关键驱动因素是物联网和5g网络的出现,“智能”芯片性能提升、“智能”应用程序数量的增加以及云基础架构负载的增加。

随着人工智能应用的不断扩展,定位于数据中心(或称“云端”)的人工智能应用普遍存在功耗高、实时性低、带宽不足、数据传输过程安全性较低等问题。预计,未来会有更多人工智能芯片部署于网络“边缘侧”。“边缘侧智能”专指靠近智能终端以及数据源头的网络边缘侧,融合了网络、计算、存储、应用的开放计算平台,已经成为人工智能芯片的重要发展趋势。

谷歌的人工智能布局正逐渐走向边缘测。在2018年7月举行的谷歌云端服务年会google cloud next上,谷歌发布一款名为“edge tpu”的人工智能芯片,作为小型人工智能加速器(体积仅为一美分硬币的1/6),可在物联网(iot)设备中实现机器学习算法的训练任务,这款芯片将为边缘设备提供强大的计算和学习能力,已成为谷歌边缘计算战略的重要组成部分;同时,发布cloud iot edge,这是一款能够将google的云服务扩展到物联网网关和边缘设备的软件堆栈。2018年11月,英伟达公开了nvidia jetson agx xavier机器人专用芯片平台、面向边缘计算的drive agx xavier汽车级人工智能芯片等,致力于边缘侧数据感知、汇聚和推演,并基于这些芯片和平台开始向公司提供企业级解决方案,正在逐步从芯片制造商转变为方案提供商的角色。

人工智能芯片将继续在物联网领域扮演更重要的角色。相比于数据中心的人工智能加速器,位于“边缘侧”智能终端中的人工智能芯片需要更低的延迟性、更低的能耗、更小的体积和更低的成本;其算法要相对成熟,无需进行频繁的迭代更新。目前,越来越多的硬件厂商开始提供边缘处理的强化产品,例如边缘服务器、智能网关等产品。

各大在人工智能领域垂直领域实践深化

各大芯片制造商除了在单纯的研发层面需要更有针对性地进行技术攻坚之外,在整个芯片领域和产业的应用、行业化纵深发展等配套层面也积极快速进行探索和发展,推进应用更加“落地”,推动人工智能芯片产品更加实用化。2018年,人工智能芯片领域的重大进展之一体现在各大人工智能芯片制造商立足于解决实际问题,在人工智能领域的实践正在不断深化。

在2018年11月举行的2018英特尔人工智能大会上,英特尔发布了英特尔神经计算棒二代(英特尔ncs 2),利用该计算棒可以在网络边缘构建更智能的人工智能算法和计算机视觉原型设备。英特尔ncs 2基于英特尔 movidius myriad x视觉处理单元(vpu),并得到英特尔 openvino工具包的支持,与上一代神经计算棒相比性能更优,能够以可负担的成本加快深度神经网络推理应用的开发。英特尔ncs 2支持深度神经网络测试、调整和原型制作,可以帮助开发者进入实际应用的量产阶段。2018年11月,英特尔牵头的联合研发团队开发的野外智能相机搭载了movidius人工智能视觉处理芯片,可完成东北虎及有蹄类动物识别,以及人类识别(用于反盗猎)等多重识别任务。

2018年,虽然高通收购恩智浦以失败结尾,但这笔收购案凸显高通的意图就是出自于拓展汽车芯片市场,智能汽车芯片的重要性也得以突显。2018年8月,特斯拉宣布独立开发的人工智能芯片已经准备就绪。2018年11月,早就成为特斯拉、沃尔沃供应商的英伟达发布了drive agx xavier汽车级芯片。芯片的市场已经由pc、移动互联网时代开始走向“智能汽车”时代。

浅析人工智能芯片发展趋势

作为人工智能技术的重要物理基础,人工智能芯片拥有巨大的产业价值和战略地位。人工智能芯片研发的核心在于芯片架构以及“感知-传输-处理/执行”全流程逻辑的研发:短期内以异构计算(多类型组合方式)为主,来加速各类应用算法的落地;中期侧重发展自重构、自学习、自适应的芯片,来支持算法的演进和类人(类脑)的自然智能;长期朝着“通用人工智能芯片”的方面发展。“通用人工智能芯片”是指能够支持和加速通用人工智能计算的芯片,能够让系统通过学习和训练,准确高效地处理任意智能主体(例如人)能够处理的任务,其面临通用性(算法和架构)和实现复杂度等两个主要难点。

但从大趋势来看,目前人工智能芯片发展尚处于的初级阶段,无论是科研还是产业应用都有巨大的创新空间。目前主流人工智能芯片的核心主要是利用乘加计算加速阵列来实现对卷积神经网络中最主要的卷积运算的加速。这一代人工智能芯片主要有如下三个方面的问题:(1)芯片功耗问题,内存大量访问和乘加计算阵列的大量运算,造成人工智能芯片整体功耗的增加;(2)内存带宽问题,基于深度学习的人工智能计算所需数据量巨大,造成内存带宽成为整个系统的瓶颈,计算框架的高度并行与扩展成为亟待解决的关键问题;(3)性能和灵活度之间的平衡问题,深度学习对算力要求非常高,提升算力的最好方法是做硬件加速,但是同时深度学习算法的发展也是日新月异,新的算法可能在已经固化的硬件加速器上无法得到很好的支持。

因此,可以预见下一代人工智能芯片将有如下发展趋势:(1)计算框架的高度并行与扩展;(2)更高效的大卷积解构与复用;(3)神经网络参数/计算位宽的迅速减少;(4)更多样的存储器定制设计;(5)更稀疏的大规模向量实现;(6)复杂异构环境下计算效率提升;(5)计算和存储一体化。

人工智能是目前研究的焦点,而为人工智能提供最底层硬件技术支持的芯片行业更是处于漩涡之中。随着人工智能相关技术在近年来的跨越式发展,人们越来越看好人工智能的前景及其潜在的爆发力,而能否发展出具有超高运算能力且符合市场的人工智能芯片成为人工智能平台的关键一役。英伟达在目前的市场上保持着绝对的领先地位,但随着包括谷歌、脸书、微软、亚马逊等众多科技巨头公司相继加入决战,人工智能芯片领域未来的格局如何,仍然待解。

真人动作捕捉

VR手套

动作捕捉设备

VR手套

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至举报,一经查实,本站将立刻删除。