华为创造AI算力新纪录:万卡集群训练98%可用度,秒级恢复
创始人
2025-06-10 14:02:24

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

大模型的落地能力,核心在于性能的稳定输出,而性能稳定的底层支撑,是强大的算力集群。其中,构建万卡级算力集群,已成为全球公认的顶尖技术挑战。

但是,在华为,昇腾万卡算力集群,已经可以做到近乎“永不罢工”了:

或许有小伙伴要问了:AI算力需要如此24小时不间断的运作吗?

答案是肯定的,需要,且有必要。

因为小到我们用手机导个航,背后都会有几十个AI模型在发力来分析路况、预测拥堵;再如医院用AI辅助诊断癌症,系统得在瞬间处理掉成百上千的CT照片。

这些看似简单的智能应用,其实都离不开如 “超级大脑” 般的AI算力集群,需要它们全天候不停歇地运转着。

而要保证有这样的能力,高训练可用度、高线性度、快速消除故障,就相当于给AI发动机上了一份强有力的保险。

更严格来说,AI推理的可用度甚至还需要达到99.95%的程度。

那么华为又是如何做到这点的?

关于这一切背后的秘密,华为在今天首次把技术给公开了出来。

AI大集群出问题时,定位故障特别麻烦;毕竟系统规模庞大,软件和硬件组成的技术栈错综复杂,而且调用链条还很长。

要解决问题,首先得确定故障出在哪个大的领域,接着再在这个领域内部一步步排查,确定具体的故障位置。在整个故障诊断过程中,面临的挑战非常大。

以往技术人员进行故障定位时,短则需数小时,长则可能耗时数天。这一过程不仅对技术人员的专业技能要求颇高,且往往难以快速锁定故障设备及根本原因。

为此,华为团队针对AI大集群面临的复杂挑战,构建了三大基础能力。

首先是全栈可观测能力

它像是给集群装了一套“火眼金睛”监控系统(故障感知),主要包含这几部分:

同时,华为还拿出了一套“故障诊断组合拳”,包含四大核心能力:

这套组合拳让集群故障诊断更高效,就像给工程师配了 “智能侦探工具”,大大缩短了找问题的时间。

最后,是一套“钢铁韧带”自愈系统(容错设计)。

想要把超平面网络的厉害之处完全发挥出来,超节点的规模就得足够大。不过到现在,还没有哪个团队能用光链路搭建超节点并成功的。

于是,华为团队就琢磨出一套超节点光链路软件容错的好办法。

这套办法就像给超节点穿上了好几层 “防护铠甲”,用上 “超时代答”“绿色通道” 这些关键技术后,超节点基本不会出现大故障。

同时,又通过链路级重传、光模块动态调整Lane、重新执行HCCL算子、借轨通信、双层路由快速恢复、Step级重新调度等技术,让超节点对光模块突然中断这类故障的承受能力变得超强,能容忍超过99%的光模块闪断情况。

哪怕超节点里的光模块数量一下子增加了10倍还多,依靠软件提升可靠性的手段,再配合光链路压力测试技术,光模块闪断的概率能降低到和传统电链路差不多的水平,稳稳保障超平面网络不出问题。

而且,华为团队还打造出Step级重调度能力,以前遇到频繁的 HBM 多比特 ECC 故障,修复可能要花很长时间,现在1分钟内就能搞定,用户因为故障损失的算力也减少了5%,实实在在地省下了不少 “计算力”。

线性度指标,简单来说就是看算力卡数量增加后,训练任务的速度或效率能提高多少(比如完成时间缩短的比例)。

举个例子:如果算力卡增加2倍,训练速度也能接近2倍,说明线性度高;如果速度只提高1.2倍,就说明线性度差,资源没被充分利用。

为了让训练效率随着算力卡增多而 “更成正比地提升”,华为团队研发了四项关键技术:

通过这四项技术,华为让Pangu大模型的训练线性度(即效率随算力卡增加的提升比例)明显提高。

整体方案的思路大概如下图所示:

实验及理论分析结果显示,训练Pangu Ultra 135B稠密模型时,4K卡Atlas 800T A2集群相比256卡基线,线性度为96%

训练Pangu Ultra MoE 718B稀疏模型时,8K卡Atlas 800T A2集群相比512卡基线,线性度95.05%;4K卡CloudMatrix 集群相比256卡基线,线性度96.48%

在大规模AI集群运行时,经常会因为各种硬件或软件故障,导致训练任务突然中断。

目前行业里常用的办法是,在训练过程中定期保存 “进度存档”(CKPT),等故障修复后从存档点继续训练。

华为则凭借软硬件全方面的技术创新,打造了一套“分层分级”的训练任务故障快速恢复系统。

简单来说,就是针对不同类型、不同程度的故障,制定了对应的 “快速重启方案”,让训练任务能更快 “续上”。

不同层级的故障恢复能力可以参考下面这张图:

除此之外,华为采用了一系列提速 “黑科技”:比如优化数据集查找速度、缓存模型编译结果、加快通信链路建立、提升训练进度保存效率。

这些技术效果显著:如果是万卡规模的超大型集群,从故障中恢复训练,10分钟内就能搞定;要是用 “进程级重调度恢复” 方法,3分钟内就能接着训练;要是用更厉害的 “进程级在线恢复”,30秒就能重新开始训练。

而且,不管集群规模有多大,模型有多复杂,恢复时间基本不受影响,还能把因为故障导致的训练进度倒退时间,压缩到一次训练循环的时长。

这么一来,AI集群能用的时间大大增加,大模型训练的效率也快了很多。

在训练阶段后的推理,也有诸多问题亟待解决。

当千亿级MoE模型不断升级,模型部署的网络结构也跟着变了。以前单机8卡就足够跑一个推理实例,如今,大EP模型架构下,需要数十乃至上百张卡才能支撑推理运行。

但新架构带来个麻烦:用的设备越多,出故障的可能性就越大,而且一旦有问题,影响的范围会特别广。

只要有一个硬件出故障,整个Decode实例(可以理解成模型运行的一个 “小团队”)就没法工作了,直接导致AI推理业务出问题,严重的话整个业务都会停摆。

为了解决大EP推理架构容易出故障的难题,华为团队想出了一个分三步的 “保险计划”:

这三步方案需要芯片驱动、框架软件、平台系统各个层面紧密配合,组成一套完整的 “防护网”。遇到不同类型的故障,就用最合适的恢复方法,尽可能减少对用户的影响,让AI推理业务稳稳运行。

在实例内重启恢复技术中,通过构建带内快速故障感知和重调度机制,搭配参数权重预热和镜像预热技术,能把实例内部的重启恢复时间压缩到5分钟以内。

还有一项很厉害的TOKEN级重试技术,当遇到HBM KV Cache故障时,从故障发生到重新输出Token的整个恢复过程不到10秒。

对比业界通常需要10分钟才能恢复实例的情况,这项技术能将故障带来的影响降低60倍,几乎让用户感觉不到故障发生,极大提升了系统的稳定性和用户体验。

总结来看,针对AI算力集群的高可用性,华为团队创新性提出了“3+3”双维度技术体系,即故障感知诊断、故障管理、集群光链路容错等三大基础能力,以及集群线性度、训练快恢、推理快恢等三大业务支撑能力。

这六大创新均带来了非常可观的收益,比如万卡集群训练可用度达到98%、集群训推最快达到秒级快恢、集群线性度达到95%+、千种故障模式库与分钟级故障诊断等。

技术报告地址:

https://gitcode.com/ascend-tribe/ascend-cluster-infra/blob/main/HighAvailability/ascend-cluster-infra-ha.md

相关内容

热门资讯

今年我省粮食产量达515.56... (来源:辽宁日报)转自:辽宁日报 图为在中储粮(盘锦)储运有限公司,装运粮食的重型卡车排起长队...
国家发展改革委部署促进投资止跌... (来源:辽宁日报)转自:辽宁日报 新华社北京12月13日电 (记者魏玉坤) 记者13日从全国发展和改...
江苏省实施《中华人民共和国森林... (来源:新华日报) 目 录 第一章 总则 第二章 森林、林木和林地权属管理...
姜堰数字化产品讲“活”理论 (来源:新华日报) □ 本报记者 卢佳乐 通讯员 姜宣 “王教授,您约我‘喝茶论道’,...
联合国维和部队在苏丹遇袭 6人... 转自:财联社【联合国维和部队在苏丹遇袭 6人死亡】财联社12月14日电,当地时间13日,苏丹武装部队...