在生成式人工智能掀起全球技术浪潮的同时,另一个更为“低调”却同样关键的技术方向正悄然崛起,那就是边缘 AI,或者说有个今年更为流行的名字——端侧 AI。如果说边缘 AI 聚焦于计算资源的下沉,那么端侧 AI 则主要涉及在设备端直接部署和运行人工智能模型、实现快速数据处理和智能决策,二者同属“分布式智能计算”的不同层级,内涵方面有很大的重合。
过去一段时间,无论是 NXP 重金收购 Kinara,还是高通宣布收购 Edge Impulse,科技巨头们的频繁动作揭示了一个清晰信号:边缘 AI/端侧 AI 正在从“概念验证”走向“战略支柱”。这场技术迁徙的背后,不仅是算力重构的必然趋势,更是围绕数据主权、实时决策与能效平衡的新一轮全球竞争。因此,本文将基于此,来聊聊科技巨头不惜巨资拿下边缘 AI/端侧 AI 领域明星企业,主要基于哪些战略考量。
据悉,Kinara 的分立 NPU (包括 Ara-1 和 Ara-2) 在性能和能效方面位居行业前列,因此非常适合用于视觉、语音、手势等新兴 AI 应用,以及其他各种由生成式 AI 驱动的多模态实现。这两款器件均采用创新架构,能够映射推理图,以便在 Kinara 的可编程专有神经处理单元上高效执行,更大限度地提高边缘 AI 性能。此外,Kinara 还提供丰富的软件开发套件,便于客户优化 AI 模型性能及简化部署流程。
恩智浦表示,通过将 Kinara 的离散 NPU 与其自身的处理器、连接和安全软件产品组合相结合,此次收购将帮助其提供“从 TinyML 到生成式 AI 的完整且可扩展的 AI 平台”。
Edge Impulse 是 TinyML (微型机器学习) 领域的明星公司,由 Zach Shelby 和 Jan Jongboom 于 2019 年创立,彼时,他们意识到微控制器的计算能力已经发展到可以运行特定领域的 AI 模型,从而可以在设备上直接执行这些模型。尽管硬件条件成熟,但缺乏一个简单的方法来构建、优化并将边缘和领域特定的 AI 模型部署到这些设备上。因此,Edge Impulse 应运而生,其构建的 AIoT 平台,可以缩短为传感器、微控制器和摄像机等小型设备创建机器学习模型所需的时间。
通过此次收购,高通能够将 Edge Impulse 的端到端边缘 AI 开发平台纳入其物联网生态系统。
除了最近几个月这几笔引发广泛关注的大额收购案之外,再往前看——
2024 年 8 月,亚马逊以 8000 万美元现金收购芯片制造商和 AI 模型压缩公司 Perceive ,Perceive 是一家开发突破性神经网络推理解决方案的公司,专注于在边缘设备上提供大型人工智能模型的技术,旗舰产品是 Ergo AI 处理器,它可以在各种环境中运行数据中心级神经网络,即使在电力受限的情况下。
当未来趋势愈发明显,科技巨头们的动作也愈加迅速,通过收购和整合边缘 AI/端侧 AI 技术,持续巩固自身在人工智能领域的领导地位,满足不断增长的市场需求,并推动技术创新和应用落地。
出于哪些战略考量?
通过分析上述的几起收购案,我们也能得到一些基本洞察:
①半导体巨头们的行动最为积极
在诸多科技巨头中,半导体巨头们是对边缘 AI/端侧 AI 反应最为强烈和迅速的群体。半导体巨头通过并购快速获取核心技术,实现抢占高增长市场的目标。
从战略意义上来看,一方面,云端 AI 面临算力成本高、延迟和隐私风险等挑战,而边缘 AI/端侧 AI 通过本地化处理数据,显著降低了带宽需求和响应时间,增强数据隐私保护并降低成本。半导体企业通过提供边缘端芯片和解决方案,帮助客户突破云端限制。同时,在传统 PC 与移动终端市场趋于饱和的背景下,边缘 AI/端侧 AI 为芯片厂商提供了全新的增量市场,包括工业自动化、智慧城市、智能驾驶、智能安防等高潜力场景。对于像高通、恩智浦、英特尔、AMD这类半导体厂商来说,布局边缘 AI/端侧 AI 不仅是抢占下一代 AI 算力入口,更是延长“摩尔定律”红利的现实路径。
比如,恩智浦巨资拿下的 Kinara,其产品可在包括传统 AI 和生成式 AI 等一系列神经网络中实现高能效的 AI 性能,满足工业与汽车市场快速增长的 AI 需求。同样,高通收购的 Edge Impulse,也将提高其为零售、安全、能源和公用事业、供应链管理和资产管理等关键领域提供全面技术的能力。
显然,边缘 AI 发展正推动硬件生态变革,成为芯片企业的“增长跳板”。
另一方面,边缘 AI/端侧 AI 对高性能芯片、低延迟处理和安全性的要求,直接依赖于半导体制程进步和硬件创新。当 AI 从云端向边缘渗透,半导体企业通过技术投资和生态合作,不仅巩固了自身在产业链的核心地位,也推动了整个行业的转型升级。未来,随着边缘 AI 设备(如智能手机、具身机器人)的普及,半导体行业将进一步受益于这一技术浪潮。
从巨头们的动作可以看出,随着技术的不断成熟,TinyML 将成为边缘 AI/端侧 AI 的重要实现路径,未来会广泛应用于智能家居、可穿戴设备、工业物联网等对成本、功耗与响应速度高度敏感的场景中。
TinyML 的核心目标是在毫瓦 (mW) 级功耗的微控制器 (MCU) 上运行机器学习模型,是目前唯一能够在毫瓦级能耗+KB 级存储+极低成本硬件上稳定运行 AI 模型的技术路径,天然适配边缘 AI/端侧 AI 最典型的部署需求。
随着 AI 应用从“集中式云推理”向“边缘智能、端侧智能”迁移,智能的部署重心发生迁移,而 TinyML 所支持的部署平台(如 Cortex-M 系列、RISC-V MCU、DSP 核等),正是分布式智能计算网络中的最末端节点,TinyML 使这些极小节点也具备基本 AI 感知与判断能力,实现真正的“泛在智能”。
而且,以往的 AI 往往局限于云端大模型和高性能算力中心,技术门槛高、开发成本大,而 TinyML 生态正在推动:①低代码/可视化建模工具:非 AI 专业人员也可训练部署模型;②硬件平台通用化:模型一键迁移;③训练推理分离:模型可在云上训练、设备端独立推理,降低设备成本。这都让 AI 真正具备了“像嵌入式软件一样开发和部署”的可能性,极大加速了边缘智能的普及。
基于在低功耗、实时性、隐私保护、硬件适配性以及广泛的应用场景等方面的独特优势,可以说 TinyML 是边缘/端侧 AI 的最核心技术支撑之一。没有 TinyML,就没有真正意义上的“边缘泛智能”与“端侧普适 AI”。
③看重大小模型互补+边云协同
边缘/端侧 AI 虽好,我们也需认识到其理解能力有限,难以处理复杂推理、语义理解等高级任务;大模型能力强,但算力开销巨大,难以在边缘或终端部署,也不适合实时响应。因此,大模型主导认知推理、复杂生成任务,边缘轻量模型主导实时感知、本地响应,两者协同恰好互补。
在未来的泛在智能架构中,边缘轻模型是响应之“快”,大模型是理解之“深”,两者协同才能构建一个既高效又可靠的 AI 系统。科技巨头正是看中这一演进趋势,才加快了对边缘部署能力与模型管理平台的全面布局。