腾讯混元开源首款混合推理MoE模型
创始人
2025-06-27 18:27:34

6月27日,腾讯混元宣布开源首个混合推理MoE模型 Hunyuan-A13B,总参数80B,激活参数仅13B,效果比肩同等架构领先开源模型,但是推理速度更快,性价比更高。这意味着,开发者可以用更低门槛的方式获得更好的模型能力。

即日起,模型已经在 Github 和 Huggingface 等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署。

这是业界首个13B级别的MoE开源混合推理模型,基于先进的模型架构,Hunyuan-A13B表现出强大的通用能力,在多个业内权威数据测试集上获得好成绩,并且在Agent工具调用和长文能力上有突出表现。

加粗为最高分,下划线是第二名,数据来源于模型公开的测试数据集得分

对于时下热门的大模型Agent能力,腾讯混元建设了一套多Agent数据合成框架,接入了MCP、沙箱、大语言模型模拟等多样的环境,并且通过强化学习让Agent在多种环境里进行自主探索与学习,进一步提升了Hunyuan-A13B的效果。

在长文方面,Hunyuan-A13B支持256K原生上下文窗口,在多个长文数据集中取得了优异的成绩。

在实际使用场景中,Hunyuan-A13B模型可以根据需要选择思考模式,快思考模式提供简洁、高效的输出,适合追求速度和最小计算开销的简单任务;慢思考涉及更深、更全面的推理步骤,如反思和回溯。这种融合推理模式优化了计算资源分配,使用户能够通过加think/no_think切换思考模式,在效率和特定任务准确性之间取得平衡。

相关资料显示,Hunyuan-A13B模型是腾讯内部应用和调用量最大的大语言模型之一,有超过400+业务用于精调或者直接调用,日均请求超1.3亿。

混元官方界面截图

官方界面中显示,该模型支持快慢思考模式切换,数学、科学、长文理解及Agent能力全面提升。其中,快思考模式适合追求速度和最小计算开销的简单任务,而慢思考模式则涉及更深、更全面的推理步骤,这优化了计算资源分配,兼顾了效率和准确性。

在实测中,观察者网测试了小数比较大小,基本的四则运算等多种基本数学题目,Hunyuan-A13B模型都能迅速响应并给出正确的回答。

测试问题

据悉,混元团队还开源了两个新数据集,以填补行业内相关评估标准的空白。其中,ArtifactsBench主要用于代码评估,构建了一个包含1825个任务的新基准;C3-Bench则针对Agent场景模型评估,设计了1024条测试数据。

本文系观察者网独家稿件,未经授权,不得转载。

相关内容

热门资讯

遇见丁宇翔·一个噪音案改判背后... 【遇见丁宇翔·一个噪音案改判背后:突破套路,守护实质公平】2025年6月,中央政法委印发通知,号召全...
节前蔬菜、猪肉价格回落,猪肉降... (来源:上观新闻)12月26日下午,记者走访上海最大肉类保供单位西郊国际农产品交易中心获悉,元旦佳节...
俄罗斯将车用汽油出口禁令再延长... △资料图  俄联邦政府新闻处12月27日通报,俄政府已于25日通过决议,将车用汽油临时出口禁令延长至...
“私募魔女”李蓓卖课12888... 12月26日,知名私募基金经理李蓓通过微信公众号“半夏投资”发布一则闭门分享会的活动介绍。报名页面显...
郝波:72个品牌跨界入局宠物行... 乐居财经 李兰 12月27日,“万物生、态不同”2025宠业新增长大会暨郝波宠业年度演讲在浙江安吉举...