从云到端,谷歌的AI芯片2.0

字体:
发布时间:2020-04-22 15:19:32
作者:芯片,三星,设计,这一,终端
从云到端,谷歌的AI芯片2.0 Lite ML模型而设计的ASIC芯片。Edge TPU 可用于越来越多的工业使用场景,如预测性维护、异常检测、机器视觉、机器人学、语音识别,也可以应用于本地部署、医疗保健、零售、智能空间、交通运输等各个领域。

Edge TPU体型小、能耗低,因此只负责AI加速判别、加速推算,仅为加速器、辅助处理器的角色,可以在边缘部署高精度AI,是对CPU、GPU、FPGA 以及其他在边缘运行AI的ASIC解决方案的补充。

谷歌还在去年推出了基于Edge TPU芯片的等一系列开发硬件,以及本地化AI平台Coral,为边缘侧提供优质、易部署的AI解决方案。

尽管TPU和Edge TPU主要是对深度学习起到运算推理加速的辅助服务器,但我们仍然能够看到谷歌在AI芯片上的布局野心。从云端,到边缘端和手机智能终端,正是理解谷歌AI芯片的内在逻辑。

(Pixel Visual Core)

从2017年开始,谷歌就在智能手机上陆续推出了定制的摄像头芯片 Pixel Visual Core 和 Pixel Neuro Core ,并用在了 Pixel 2、Pixel 3 和 Pixel 4上。

Pixel Visual Core,是一种图像处理单元(IPU),也是谷歌自研的第一款移动芯片,专门用于加速相机的HDR+计算,其使用了机器学习和计算摄影,可以智能地修补照片不完美的部分,也使图像处理更加流畅和快速。这也是很多人说的谷歌手机的照片不是拍出来的,而是算出来的原因。

而到了去年,谷歌在Pixel 4上使用了Pixel Neural Core专用处理器来代替Pixel VIsual Core。神经网络算法可以使谷歌手机的相机镜头识别所拍摄的物体,然后既可以将数据交给图像处理算法去优化,也可以将数据输出给谷歌助手进行识别。同时,Pixel Neural Core也可以让谷歌助手进行更复杂的人机对话,还有进行离线的语音文本翻译。

如果谷歌不是有着TensorFlow、Halide以及编译器等AI算法和开发软件,谷歌的AI芯片的很多设计显然是无法发挥太大作用的。软硬件结合,才让谷歌的芯片设计走得更为彻底和硬气。

软硬兼融,谷歌AI芯片快速迭代的硬气底色

在互联网公司的造芯赛道上,谷歌无疑是跑在最前面的一家。

据报道,早在2006年,谷歌就考虑在其数据中心部署 GPU或者 FPGA,或专用集成电路。而由于当时没有多少要在专门硬件上运行的应用,因此使用谷歌大型数据中心的富余计算能力就能满足算力要求。

而一直到2013年,谷歌已经开始推出基于DNN的语音识别的语音搜索技术,用户的需求使得谷歌数据中心的计算需求增加了一倍,这让基于CPU的计算变得特别昂贵。因此,谷歌计划使用现成的GPU用于模型训练,而快速开发一款专用的集成电路芯片用于推理。

后来我们知道这一专用定制芯片就是TPU,而这一快速开发的周期仅仅是15个月。基于软件造芯,谷歌并非独一家,但相比亚马逊、Facebook来说,谷歌则一直有持续的芯片产品推出。谷歌能够如此快速且高频地进行 硬件 输出,那自然是有其 硬气 的原因的。

首先一定是战略上的重视。此前谷歌CEO皮猜就曾强调,谷歌从来不是为硬件而硬件,背后的逻辑一定是AI、软件和硬件一体,真正解决问题要靠这三位一体。

其次就是人才的重视。以当前谷歌这一消费端的SoC芯片为例。此前这一项目对外界来说早已是公开的 秘密 。从2017年底,谷歌就开始从苹果、高通、英伟达等公司高薪挖 角 ,其中包括苹果A系列处理器著名的研发工程师John Bruno。但直到去年2月,谷歌才正式宣布在印度班加罗尔的组建了一支 gChips 芯片设计团队,致力于谷歌智能手机和数据中心芯片业务,未来还会在该地办新的半导体工厂。消费级芯片似乎只差临门一脚了。

当然,最重要的因素还在于谷歌在AI芯片上的创新优势。我们知道,AI芯片的研发,本身是一个周期长且耗费巨大资金的项目。芯片设计到成品的周期可能赶不上AI算法的发展进程。如何实现AI芯片的硬件设计与算法、软件的平衡,成为谷歌设计芯片的关键优势。

而谷歌提出的解决方案则更值得称道,那就是用AI算法设计AI芯片。

具体来说,AI芯片设计存在着以下难题。首先是,3D芯片的放置,在受限区域中跨层级配置数百到上千的组件,工程师们需要手动设计来进行配置,并通过自动化软件进行模拟和性能验证,这通常需要花费大量时间。其次是,芯片的设计架构赶不上机器学习算法或神经网络架构的发展速度,导致这些算法架构在现有的AI加速器上效果不佳。另外,尽管芯片的布局规划的设计进程在加快,但在包括芯片功耗、计算性能和面积等多个目标的优化能力上仍然存在限制。

为应对这些挑战,谷歌的高级研究科学家Mirhoseini和团队研究人员Anna Goldie提出了一种神经网络,即将芯片布局建模转化为强化学习问题。

与典型的深度学习不同,强化学习系统不会使用大量标记的数据进行训练。相反,神经网络会边做边学,并在成功时根据有效信号调整网络中的参数。在这种情况下,有效信号成为降低功率、改善性能和减少面积组合的替代指标。结果就是,系统执行的设计越多,其效果就会越好。

在对芯片设计进行了足够长时间的学习之后,它可以在不到24小时的时间内为谷歌Tensor处理单元完成设计,而且在功耗、性能、面积都超过了人类专家数周的设计成果。研究人员说,这一系统还向人类同行教授了一些新技巧。

最终,谷歌团队希望像这一AI系统能达到 在同一时间段内设计更多的芯片,以及运行速度更快,功耗更低,制造成本更低,外形体积更小的芯片 这一目标。

意在未来,谷歌SoC芯片集成的AI野心

这一次谷歌自研的终端处理器SoC芯片,其本质上还是谷歌AI芯片的延伸。

细心的人们应该已经发现,这次的SoC芯片并不是完全出自谷歌研发团队,而是选择了与三星展开了合作。从媒体的曝光看,谷歌这次的手机主控会采用5nm制程、Cortex-A78大核、核心数多达20个的新GPU,而这些恰好就是三星Exynos 1000的特征。所以,这款三星堆料的芯片,最主要的 谷歌元素 就是在ISP和NPU上应用了谷歌自家设计的AI芯片。

这一选择自然有着谷歌充分的考虑和一些明显的优势,但也存在着一些不利的影响。

最直观的好处就是加快了谷歌的手机端SoC芯片的研制速度,降低对高通处理器的依赖,并可以迅速应用到下一代谷歌pixel手机上。

另外一个好处是,谷歌主导的芯片设计将使得谷歌像苹果一样建成自己的封闭系统。谷歌最硬核之处就在于拥有庞大的数据和AI算法。伴随着应用层面不断丰富的数据体验和AI体验,比如在飞行模式下实现语音实时转录文字的功能,手机的硬件性能以及系统的兼容支撑就可能成为智能手机的性能天花板。如何在安卓系统中将处理器性能发挥到最大,可能没有谁比谷歌更清楚了。

毕竟前面几款谷歌Pixel手机的市场表现都不温不火,尽管其在拍摄算法和AI助手等应用上面极具优势,但在终端的外观设计、屏幕、摄像头、电池等硬件配置上一直存在 短板 ,难以和全球几家主流终端玩家的旗舰机型媲美。想必应用了最新一代的SoC芯片的新款Pixel机型的定价也将非常 高端 ,但在硬件上的 偏科 ,可能仍然会影响其整体的市场表现。

此外,由于这是一款全新的 非主流 芯片,也会对游戏、软件开发者而言,不再成为 软件开发样板机 的首选测试机型。

无论如何,这一集成了深度学习性能的SoC芯片,将为谷歌争夺未来的AI市场做好准备,帮助谷歌、在移动终端上将语音识别、图像处理等AI应用的性能发挥到极致,提早一步占领真正的智能终端的领导者位置。

无论怎样,谷歌的造 芯 举动,一定会对上游芯片厂商以及智能终端厂商带来正面冲击。如果通过 Whitechapel 证明了谷歌的 造芯 战略的成功,那么谷歌距离苹果的差距还有多少呢?

自研芯片、安卓系统叠加最新AI计算能力,如果再补足硬件配置的短板,那么谷歌极有可能打造一个安卓生态圈的软硬件完美适配的闭环系统。

最后,我们发现一个比较令人疑惑的细节。此次芯片的代号为 Whitechapel ,名为 白教堂 。如果熟悉英美剧的读者们,可能会看过一部名为《白教堂血案》的英剧。如果不是非要过度解读的话,我们可以理解为某位重要研发者喜欢这部惊悚悬疑剧,所以以此来命名。如果非要 过度 解读一下的话,谷歌可能是想用一个百年未解的 谜团 来预示着智能终端的AI应用的纷争的开场。

当然,这个答案也许还得等谷歌的新的Pixel手机上市才能揭晓。

 

>相关新闻
三亚资讯 | 国内新闻 | 国际新闻 | 社会与法 | 社会万象 | 奇闻轶事 | 娱乐热点 | 明星八卦 | 综艺新闻 | 影视快讯 | 楼市资讯 | 地产要闻 | 地方特色 | 美食营养 | 美食助兴
车界动态 | 新车上市 | 购车指南 | 体坛要闻 | 篮球风云 | 国际足球 | 中国足球 | 理财生活 | 创富故事
关于本站 - 广告服务 - 免责申明 - 招聘信息 - 联系我们
服务介绍-(联系我们)  三亚网 版权所有,未经书面授权禁止使用