芯片厂商狠推AI体验,联发科扮演核心角色
芯片厂商狠推AI体验,联发科扮演核心角色
推荐 2019-03-21 17:11:54
你可能知道 GPU 越强大,玩游戏就越爽。但你可能不知道,在人工智能(AI)成为热门话题之前,GPU 已经在为你搞定AI运算任务了,这些任务不光是图形计算,还包括人脸识别,拍照景深等这些比较常见的使用场景。像高通就是利用 GPU 来做 AI 任务处理。 AI应用当然不能只是停留在识别层面,比如视频的时候实时美颜美体,更高级别的图形影像像素补偿,人机交互的其他应用等, 光靠 GPU 这位「兼职人员」怎么行?所以各厂商便开始采用专门的AI 处理器—AI专核。
从 AI专核说起
联发科的 AI专核叫 APU,华为则称其为 NPU,苹果叫它神经网络引擎,高通目前没有独立的AI专核,采用的是GPU+DSP做AI处理。联发科、华为、苹果早已知晓CPU+GPU 性能提升已经很有限,AI 专核早就是手机厂商以及芯片厂商研发的重点了。目前掉队的似乎只有高通,还执着于继续提升GPU性能,做AI处理。
AI 并不是近两年才有的,AI(人工智能)看似一个营销词汇,现在一般指的是机器学习。而APU、NPU、GPU等等实际上是一种专为运行积卷神经网络(CNN)做优化的专用硬件模块。
神经网络早在上世纪 80 年代就已经是研究课题了。它在绘制高度错综复杂的执行模型方面是很出色的。理论上,CPU 也能做这样的工作,但因为 CPU 并不专注于重度并行执行工作,所以高通从很早开始,就选择采用 DSP 来做模型执行,效率就提高了好几倍。GPU 对于承担这类工作也有天然优势,高通早前发布的 SNPE SDK,就是充分调动 GPU 和 DSP 来做这部分工作。
但人们显然并不满足于此,针对这类工作的专门处理单元也就出现了。比如现在联发科Helio P90 内部的 APU 2.0,华为 Kirin 980 内部的 NPU 等。它们出现的根本就在于对神经网络执行工作的愈发依赖。AI处理性能的比拼也成为各厂商的战争。从苏黎世AI跑分,12nm的联发科P90能与高通7nm的855处在同级别,几乎也证明了随AI发展大势所趋,AI专核才是更厂商应发展的方向,期待高通不再执着于GPU+DSP来进行AI处理,那么AI专核芯片究竟能做什么呢?
AI专核芯片能干嘛?
在很多人的印象里,AI 芯片现阶段能做的主要是帮助拍照,这的确是 AI 在民用领域的发端,但却只是冰山一角。联发科在去年的 CES 展上展示了一个使用场景:视频直播时,视频编码器可以接受场景构成的元数据,通过一个卷积神经网络层进行图片识别,然后编码器能够针对参会者脸部应用更细粒度的块尺寸,最终起到加强视频质量的作用。这就是 AI在视频方面典型应用了。
结合典型的 AI 芯片联发科 Helio P90来谈,其 AI 加速单元实际融合了两颗 APU,所以联发科P90 本身芯片层面的脸部识别引擎能做到比 iPhone XS 更快,另外联发科还提到其 ISP 还有专门的 AI 引擎,表现在拍照中其暗部抑噪能力也超越了iPone XS。
联发科曾经演示过用 Helio P90 来追踪一名舞者的动作,以 30fps 速度拍摄时,APU 可捕捉 9fps 的动作。这是业界首个3D AI Demo,即追踪人体动作(不光是脸部),它能够针对 3D 图像测量深度,同时追踪至多 6 个人。在 GPU 渲染图像的同时,让 APU 来处理 3D 姿势。就具体应用场景,比如人体 3D 建模,一些运动类 App(纠正运动姿势)就可以加以利用了,例如你在家就可以知道自己的健身方式对不对。另外又由于其是基于 APU 来实现,所以对 CPU、GPU、ISP 而言没什么压力,功耗、效率也就完全不成问题了。相比仅凭GPU+DSP来进行AI处理是达不到此效果的, 这也是联发科在AI应用方面领先高通的原因。
联发科还与更多企业合作,可以实现 Helio P90 设备几乎实时的 AI 语音翻译;以及通过物体识别来购物——比如实时识别视频中的衣服和商品,直接就能点击购买了。还有比如游戏开发商可以利用 AI 在游戏中加入虚拟助手,实时给出游戏建议,以更高的效率提升游戏水平。
所以目前来看联发科 Helio P90 的 APU 2.0 总体的实际应用确实已经算丰富了,包括了:实时追踪人体动作、3D 头像 AR、3D 姿势追踪、多种对象的识别、AI 深度感知、AI 拍照降噪、视频通话质量提升、谷歌 ARCore 支持等等,至于直播美颜、视频实时换脸等等,就都是小意思了。
这不是个一蹴而就的过程
本文地址:http://www.fm120.net/content/201904/040220P62019.html