华为,重磅发布!
创始人
2025-11-21 18:02:10

每经编辑|张锦河    

11月21日下午,华为在上海举办“2025 AI容器应用落地与发展论坛”,会上正式发布并开源了创新AI容器技术Flex:ai。

据媒体报道,目前,行业内算力资源的平均利用率仅为30%至40%,据华为介绍,Flex:ai通过算力切分技术,将单张GPU(图形处理器)/NPU(神经网络处理器)算力卡切分为多份虚拟算力单元,切分粒度精准至10%。此技术实现了单卡同时承载多个AI工作负载,在无法充分利用整卡算力的AI工作负载场景下,算力资源平均利用率可提升30%。

与英伟达旗下Run:ai只能绑定英伟达算力卡不同,华为AI容器技术Flex:ai通过软件创新,可实现对英伟达、昇腾及其他第三方算力资源的统一管理和高效利用,有效屏蔽不同算力硬件之间的差异,为AI训练推理提供更高效的资源支持。

图片来源:视觉中国-VCG211478193393

为什么推出Flex:ai?华为方面认为,在大模型时代,容器技术与AI是天然搭档。

容器技术作为一种轻量级虚拟化技术,可以将模型代码、运行环境等打包成一个独立且轻量级的镜像,实现跨平台无缝迁移,解决模型部署存在环境配置不一致的痛点。

同时,容器技术可以按需挂载GPU(图形处理器)、NPU(神经网络处理器)的算力资源,并且按需分配和回收资源,提升集群整体的资源利用率。

第三方机构数据显示,目前AI负载大多已容器化部署和运行,预计到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行。

此外,传统容器技术已经无法完全满足AI工作的负载需求,AI时代需要AI容器技术。

Flex:ai可以大幅提升算力资源的利用率,主要是通过对GPUNPU等智能算力资源的精细化管理与智能调度,实现对AI工作负载与算力资源的精准匹配

具体来看,Flex:ai的关键能力分别是算力资源切分、多级智能调度、跨节点算力资源聚合。

以算力资源切分为例,Flex:ai可以单张GPU/NPU算力卡,切分为多份虚拟算力单元,切分粒度精准10%,实现单卡同时承载多个AI工作负载的效果。

每日经济新闻综合上海证券报、公开信

相关内容

热门资讯

中信证券:2026年度造纸行业... 转自:财联社【中信证券:2026年度造纸行业预计底部改善 金属包装行业将迎来春天】财联社11月21日...
财联社汽车早报11月21日 转自:财联社两部门发布《新能源汽车政府采购需求标准(征求意见稿)》11月20日,财政部会同工业和信息...
四川阆中警方凌晨通报 转自:北京日报客户端11月21日凌晨,四川省阆中市公安局发布“警情通报”:11月20日,阆中市一学生...
@近视的你 当心甜食正在悄悄损... 来源:央视新闻客户端 用眼过度、强光刺激……这些常见的视力“杀手”相信大家都不陌生但日常生活中有一个...
直击车展 | MoLA架构发布...   Hehson科技讯 11 月 21日上午消息,在华为乾崑生态大会上,华为智能汽车解决方案 BU ...