来源:环球网
【环球网科技综合报道】3月4日消息,Arm 控股有限公司发布与阿里巴巴淘天集团轻量级深度学习框架 MNN 的又一新合作。双方经由 Arm KleidiAI 的集成,让多模态人工智能 (AI) 工作负载通过阿里巴巴经指令调整的通义千问 Qwen2-VL-2B-Instruct 模型运行在搭载 Arm CPU 的移动设备上。该版本的通义千问模型专为端侧设备的图像理解、文本到图像的推理,以及跨多种语言的多模态生成而设计。此次的合作显著提升了端侧多模态 AI 工作负载的性能,带来全新的用户体验。
在MWC 2025上,Arm 展示了此次合作的成果,该演示突出了模型如何理解视觉和文本输入的多种组合,并对图像中的内容进行提炼说明。这项演示在搭载 MediaTek 天玑 9400 移动系统芯片 (SoC) 的智能手机上完成。
Arm 终端事业部产品管理高级总监 Stefan Rosinger 表示:“我们正身处 AI 革命的浪潮之中,亲眼见证了多模态 AI 模型的兴起。这些模型能够处理并理解多种数据类型,涵盖文本、图像、音频、视频及传感器数据。然而,由于硬件本身的电力限制和内存约束,加之同时处理多种数据类型带来的复杂性,在端侧设备上部署这些先进的多模态模型正面临着不小的挑战。”
Arm Kleidi 成为解决这些挑战的理想方案,它能够为运行在 Arm CPU 上的所有 AI 推理工作负载提供无缝的性能优化。KleidiAI 是一套轻量级且高性能开源的 Arm 例程,专为 AI 加速而设计,目前已被集成到最新版本的主流端侧 AI 框架中,包括 ExecuTorch、Llama.cpp、LiteRT (通过XNNPACK)和 MediaPipe,能让数百万名开发者无需进行额外操作,即可自动获取 AI 性能的显著提升。
通过 KleidiAI 与 MNN 的集成,Arm 和 MNN 团队测量了 Qwen2-VL-2B-Instruct 模型的加速性能,结果显示在端侧的关键 AI 多模态应用场景中,其运行和响应速度均有所提升。这一提升可为阿里巴巴旗下众多以客户为中心的应用程序带来更加出色的用户体验。
这些用例响应速度的提升,得益于模型预填充(指 AI 模型在生成响应之前先对提示词输入进行处理)性能提升了 57% ,以及解码(指处理提示词后从 AI 模型生成文本的过程)性能提升了 28%。此外,KleidiAI 集成还可以通过降低多模态工作负载的总体计算成本,进一步促进端侧设备上 AI 工作负载的高效处理。数百万使用包括 MNN 框架在内的热门 AI 框架运行应用程序与工作负载的开发者,可以在针对边缘侧设备的应用和工作负载中享受到这些性能和效率的提升。