近日,2022 世界人工智能大会(WAIC)在上海举行。本届大会以“智联世界,元生无界”为主题,探讨了 AI 新技术、元宇宙,以及这些新赛道的融合场景及应用。
高通作为全球领先的科技公司,在智能时代几乎已经成了“芯片”的代名词。随着 AI 崛起,高通在 AI 领域积极布局,不仅包含 AI 芯片,还包括诸多软件层面的应用以及开发平台,全面赋能 AI 行业。
高通已经连续参加了 5 届 WAIC,在本届大会上,高通公司总裁兼 CEO 安蒙发表主题演讲。从元宇宙到到无界XR,从边缘侧技术到终端,“赋能行业”成为了高通的关键词。
“元宇宙是互联网的未来,也就是空间互联网”。作为高通公司的总裁兼 CEO,带着对行业的深刻洞察,安蒙对元宇宙抱有非常乐观的看法。
诚然,元宇宙几乎能够为各个行业带来变革,因为它是一种全新的体验。设想一下,在一个多维的虚拟世界中,它提供了高度沉浸式、可定制化,同时模糊了物理世界与数字世界的新体验,这会发生什么?
以零售行业为例,基于元宇宙打造的全新空间以及颠覆式的体验,会带来更高的客户忠诚度;在开发端,数字孪生会在元宇宙中越来越普及,产品研发、药物治疗效果、商业飞机性能监测等等领域都能看到它的影子。
不妨再将脑洞打开的更大一些,艺术领域能否与元宇宙碰撞呢?在沉浸式虚拟空间里,设计师、音乐家同样能够以全新的方式与受众沟通。如今,虽然我们能够想象到多种多样的元宇宙应用案例,但安蒙在演讲中也提到,“元宇宙如何影响和改变行业、人们的生活,我们目前的理解只是冰山一角”。
沿着这样的逻辑,我们不免会问,元宇宙的未来是星辰大海,那么,入口在哪里呢?
这正是问题的关键,我们需要入口,它是连接物理世界和数字世界的通道。XR 扩展现实设备、增强现实、虚拟现实设备以及几乎人手一部的智能手机,甚至个人电脑都可以成为“入口”。
智能手表、智能家居等终端会成为元宇宙的物理链路。随着网联终端数量的持续增长,万物互联逐步实现。这些终端产生的数据将会反哺、助力构建元宇宙,元宇宙进一步完善,再促进不同形态的终端出现,如此构成了一个螺旋上升的曲线。
终端也好,入口也罢,它们有一个共同的称呼——边缘侧。边缘侧技术对元宇宙的发展至关重要。做个比喻,如果元宇宙是一个巨大的仓库,边缘侧技术不突破,也只能望洋兴叹,仓库只能看,不能用。
为了进一步阐述这个问题,需要引出两个概念加以对比:边缘端和云端。云端的技术包括云计算、云端芯片,它的特点是性能强大。而边缘端(边缘芯片、边缘计算、边缘 AI)的特点是使用场景众多,而且不同场景对能耗也有需求。由此可以理解,边缘端技术的部署更加复杂,同样一个功能,放在智能手表上没问题,如果转移到手机上,很可能要重新设计一遍。
所以,为何不把所有的边缘端的计算全部移到云端,借助云端强大的芯片彻底解放边缘端呢?
对此我们只能说,“想法很好,但可能做不到”。
首先,云计算面临带宽不足的问题。虽然全球都在谈 5G,但实际情况是网络传输的速度很难赶上数据增长的速度,网络传输是一个大问题。以无人驾驶汽车为例,高速行驶情况下,其响应时间需要达到毫秒级,此时任何网络延迟都会造成严重后果。
另一个例子,波音 787 飞机每秒钟产生 5GB 数据,但是飞机与卫星之间的传输速度无法处理如此大的数据量,把所有数据都交给云端处理、再返回明显不现实。此时,就不难理解边缘侧技术为何如此重要了——当数据可以在本地(终端)处理,再与云端交互,那么以上问题就会迎刃而解。
第二,边缘侧技术更加稳定可靠。一个经常用的案例是,当没有网络,而家里门锁需要人脸识别打开,数据又存放在云端,此时只能等待了。但如果智能门锁使用的是边缘 AI,部署边缘芯片,即便没有网也不耽误扫脸开门,这便是可靠性。
第三点是安全原因。对于某些数据,用户不愿意放在云端,存储在本地更加放心。
至此,元宇宙、边缘侧技术和 AI 就产生了关联。在未来,终端(边缘侧)使用的 AI 芯片,具备的算力,几乎完全决定了用户体验。这便是我们不厌其烦的强调“边缘创新”的原因。用高通总裁兼 CEO 的说法就是,“AI 对于塑造用户体验至关重要,因为元宇宙需要学习和适应不断变化的环境及用户偏好”。
也许正是深刻洞察到了这一点,高通一直在终端智能领域发力,积极赋能各类厂商、开发者。
经过十多年在 AI 领域的深耕,高通已经成为终端智能领域的全球领军企业。几乎已经是家喻户晓的“骁龙XR”平台,就是专门为满足空间互联网需求而设计。作为先进的边缘侧平台,目前已经有超过 50 款基于骁龙XR的商用设备发布。Ziad Asghar 是高通公司产品管理副总裁,在他看来,AI 是一种水平化赋能技术,能够应用于骁龙支持的各个领域,比如把 AI 用于语音、音频。
在前文提到,边缘侧 AI 既要良好的计算性能,又对功耗有更高的要求,毕竟它不是云计算中心。而就在去年底,第七代高通AI引擎推出,在性能-功耗能效上实现了新突破。根据 Ziad Asghar 介绍,从第六代高通AI引擎到第七代,在相同功耗下 AI 能力提升了一倍。Hexagon处理器作为第七代AI引擎的核心组成部分,它由标量、张量和矢量加速器组成,并且三个加速器享用统一的共享内存,根据报道,第七代AI引擎推理速度比上一代提高了 3 倍。
在边缘侧部署 AI,面临的另一个难题是终端种类繁杂,并且某些时候需要协同工作。比如智能耳机和智能手机。不同终端,其运行要求的性能、功耗大不相同,因此解决方案必须要支持从 500 毫瓦到 15 瓦特、甚至 200 瓦特功耗区域。另一方面,不同终端产品所需的深度学习架构差异也非常大。比如面向移动领域可能需要使用生成模型,面向计算领域需要使用 Transformer 模型,面向汽车 ADAS 需要激光雷达模型。与此同时,特性需求也大不相同。汽车和 XR 需要不同的并发环境,因为它们需要支持更多的并发场景。此外,所需数据类型也截然不同。
在这种情况下,高通的硬件是如何解决问题的?
通过调整 Hexagon处理器内的加速器和内存组件,拼接多个 Hexagon处理器,比如面向计算、云端、边缘和汽车领域扩展时,可以通过更多 Hexagon处理器协同工作以扩展提升性能。这带来的好处是,产品既可以面向毫瓦级功耗需求,也可以面向微瓦级功耗需求。随着高通将其引入更多高性能终端,上述功耗优势能够规模化扩展,形成骁龙的独特优势。
上文所列于都是高通利用其硬件优势赋能边缘侧的创新举措。另一方面,相对于硬件,高通不久前发布了重磅产品——AI 软件栈(AI Stack)。该产品的出现,有望打破传统的 AI 开发模式。
多场景、多终端开发始终是在边缘侧部署 AI 的瓶颈。同一个功能需要在不同终端下重复开发,不仅是消耗开发人员的精力,同时限制了它们的创造力,因为更多的时间本可以用来专注产品创新。但是 AI 软件栈的出现颠覆了这一老旧开发模式。
作为 AI 开发“全家桶”,一言以蔽之,AI 软件栈可以实现“一次开发,多终端使用”。
这款产品覆盖了当前高通所有产品线,支持所有框架。包含 TensorFlow Micro、TensorFlow、Pytorch 和 ONNX。支持所有 AI runtimes,包括高通神经网络处理 SDK 和高通AI引擎Direct。
AI 软件栈能够让用户可以根据实际需求进行模型开发和优化。例如,在智能手机领域开发的软件可以便捷地扩展至物联网或任何其他产品线。
除了在硬件、软件上赋能开发者,高通还在模型压缩技术上投入、从神经网络中移除冗余部分、打造更先进的编译技术等等。这些工作,有助于提高模型能效,帮助客户建立优势。
通过使用 AI 模型增效工具包(AIMET)的无数据量化功能,模型仅损失不到 1% 的精度,就能够将其从 FP32 模型转化为 INT8 模型,能效提升 16 倍。
通过与谷歌就 Google Vertex AI 解决方案的神经网络架构搜索展开合作,在移动端的自然语言处理方面,高通在不影响精度的情况下将时延降低了 13%。此外,其还将汽车领域中的物体检测这一功能,时延改善 13%,并且精度提升 1.3%,对于特定的汽车应用场景,这是巨大的优势。
在 AI 领域,大众对边缘侧技术了解较少,反而更多关注点在云端。这主要是因为终端场景太多,和用户太近,反而产生了“只缘身在此山中”效果。然而,从全球市场来看,仅是边缘 AI 芯片这个领域,大有超过云芯片市场的趋势。
全球技术市场咨询公司 ABI Research 的数据显示,预计到 2025 年,边缘 AI 芯片组市场的收入将达到 122 亿美元,云AI芯片组市场的收入将达到 119 亿美元。边缘 AI 芯片组市场将超过云 AI 芯片组市场。
随着 AI 技术的发展和在个各行各业的应用普及,企业越来越多的需要解决有关数据隐私、电源效率、低延迟和强大的设备上计算性能等问题,而这些“难题”,成为了推动边缘侧创新的原动力。
高通公司总裁兼 CEO 之所以敢说“高通和骁龙,已成为通往元宇宙的钥匙”, 一定程度上是基于高通在边缘侧 AI 这一元宇宙入口多年的深耕和布局,骁龙平台和一系列赋能 AI 的硬件、软件工具,正在赋能其他厂商、合作伙伴以及开发者,提高他们的开发效率和创新能力。