来源:钛媒体
无问芯穹联合创始人、CEO夏立雪
7月30日消息,2025世界人工智能大会(WAIC 2025)期间,清华系AI infra公司无问芯穹发布全规模 AI 效能跃升方案,并正式推出三大核心产品:无穹 AI 云、无界智算平台与无垠终端智能。
具体来说,无穹AI云主要针对万卡至十万卡全局算力网络,无界智算平台则是针对百卡至千卡级大型智算集群,无垠终端智能针对单卡至十卡级有限算力终端。该方案是一套面向未来智能基础设施的软硬协同系统,分为跨地域智算网络、智算集群与多形态智能终端等全规模场景,统一适配多种异构算力,提供从模型调度、性能优化到应用部署的全链路支持。
与此同时,7月29日凌晨无问芯穹还宣布,无穹AI云大模型服务平台现已上线智谱最新开源、性能达全球第三的新一代旗舰模型上架GLM-4.5(3550亿参数)和GLM-4.5-air(1060亿)。
事实上,随着DeepSeek全球爆火,Kimi K2、MiniMax M1、智谱GLM-4.5等开源模型均在北京时间夜间发布,希望以此在海外获得好评,而AI Infra算力公司都在第一时间适配。这让我们对于模型、算力、芯片之间的融合性发展抱有更多的期待。
无问芯穹联合创始人兼CEO夏立雪表示,通过提供无穹 AI 云、无界智算平台与无垠终端智能,在单卡至十万卡算力的全规模软硬件场景中赋能AI应用。
夏立雪指出,当前国内芯片与算力设施种类繁多,形成了多个独立生态,但不同厂商的硬件架构、接口协议差异显著,导致开发者往往需要花费大量精力学习不同芯片的使用方法,这严重制约了AI技术的落地效率。而无问芯穹打造了一套产业链上的“世界通用语言”,可实现不同芯片之间的无缝通信与协同,从而使算力资源即插即用,且如同超市商品般可自由挑选。
夏立雪对笔者称,模型和算力芯片是两条驱动路径。模型本身是技术驱动,而芯片是模型的资源,所以,两者不可能分开发展,还是需要一定的融合及协同。技术上,infra公司肯定做很多优化手段,再把现在能用的资源整合起来,尽可能不要被资源限制,而从更长远的发展来说,国内算力产业还是需要多方配合。这是整个产业要一起解决的问题。
“这很难用一个统一的确定性方式来描述,为什么?因为我们国内整个生态非常丰富,而看国外,你说到底是英伟达先造出芯片,还是OpenAI先造出模型,对吧。如果他们两个是闭环的,英伟达就永远知道它的下一个芯片该怎么造,模型厂商知道未来有可能用上什么样的芯片,所以,生态闭环是非常重要的,我们希望能够打造国内的算力生态。芯片迭代确实慢,一颗芯片从设计到流片,再到测试,至少两年。但是如果我们能够把生态信息,和资源闭环打通,我们的芯片厂商就能够知道下面应该往哪个方向发展,包括让内存变大、访存变得更快,做一个新的计算单元等。”夏立雪表示。
据悉,无问芯穹成立于2023年5月,是一家专注于为 AI 2.0时代提供完整解决方案的科技公司,致力于成为大模型落地过程中的 "M×N" 中间层,为中国乃至全球AI产业的发展注入新的动力。
“两年前,我们惊艳于几千卡集群训练而成的GPT3.5,但今天,一部手机也可以装下与它同等性能的小型AI了。”夏立雪指出,资源的稀缺性约束驱动着智能效率的持续进化,而广泛的应用需求,也正牵引着顶尖模型不断从大规模计算中下放到中等算力、小算力场景中。他绘制了一个AI落地价值图:AI应用落地价值空间=场景尺度×计算资源×智能效率。
2024年,无问芯穹宣布完成近5亿元A轮融资,创下国内AI基础设施最大单笔融资记录。至此,这家仅仅成立两年的公司已累计“吸金”超过10亿元。
官网显示,目前无问芯穹主要提供两类核心产品或服务:一是AI云平台,面向企业和开发者提供从算力、模型到应用的一站式服务,包括全面的云管平台、强大的基础云产品、一站式 AI 开发平台、大模型开发平台、大模型应用开发平台、行业大模型方案等;二是云平台之下的国产化 AI 算力适配和性能极致优化,对十余种国产 AI 芯片全面适配,实现开源模型的无缝迁移,通过算法和编译优化,国产芯片性能提升50%~200%,并实现多源异构国产 AI 芯片的统一调度和混合精度计算,综合性价比全面超越国际主流芯片。
整体来看,无问芯穹的产品体系从基础设施到行业应用,包括面向智算中心、大模型厂商、行业客户等领域,全面助力 AGI 技术的规模化落地。
据夏立雪在现场披露的数据显示,无问芯穹服务的全球最大AI孵化器——上海模速空间,日均Tokens调用量已成功突破100亿大关,累计服务10余个智慧场景、支撑100多个前沿AI创新应用,单应用月活高达数千万。
如今,无问芯穹进一步细化相关产品服务,夏立雪将这三个产品比作了“三个盒子”,提供“打包式”的产品服务能力。
夏立雪表示,无界智算平台凭借其全域异构兼容与智能调度能力,构建了弹性灵活的算力服务能力,精准匹配复杂业务需求,高效利用2000张华为昇腾910B智算加速卡,实现了千亿参数模型的分布式部署与大规模推理。
同时,无问芯穹提供全球首个跨地域全分布式联合强化学习服务,将各地AIDC中零散的算力资源,与一个中等体量的算力集群结合起来,完成跨地域的联合强化学习,最小支持单张消费级显卡接入,让每一张闲置GPU都能发挥更大价值,让中小企业也能训练自己的领域推理模型。基于这一突破,无问芯穹与三大运营商及20余家AIDC机构联合启动“AIDC联合运营创新生态计划”。
此外,无问芯穹还提供各类模型和一体机服务。例如,该公司与上海创智院共同打造了全球首款端侧本征模型无穹天权Infini-Megrez2.0;无问芯穹与联想合作联想智能终端推理加速引擎无穹开阳Infini-Mizar2.0,实现端侧单任务异构计算,在AI PC场景下将本地模型尺寸上限从70亿提升到300亿;无问芯穹与新华三合作大模型一体机;无问芯穹与苏州异格技术合作推出FPGA大模型推理一体机(是无问自己的LPU IP),单机即可驱动百亿参数大模型,不仅能效翻倍,而且进一步大幅降低大模型推理成本。
谈到恢复销售H20对于国产芯片发展话题,夏立雪表示,这依然需要看长期价值。因为这也不是第一次出现冲击(禁令)了,这种封禁再放开的这种节奏发生很多次,所以整个产业对于这种变化也逐渐适应。
“我会认为,其实一切都在向好。我可以说,H20本身也不是在某一领域最尖端的技术,无论是在训练还是在推理上,它都已经是调优过的版本了。所以,我认为这一次至少对国内产业来说,短期肯定会有波动,但长期没有那么大的冲击。”夏立雪称,大家一面做自己模型,另一面为国产芯片的使用不断打磨,目前在一些国产卡上跑的比较快,具备了很好的商业价值,尤其AI逐渐从训练走向模型推理,最终看的是使用效率、性能等能否满足需求。
夏立雪称,虽然目前大部分训练是依靠英伟达卡,但推理侧可以选择很多国产计算卡。“很多用户最开始在我们平台上使用国际先进芯片,但我们会帮他们逐步迁移、扩容到国产卡上,他们发现也很好用,这样的话逐渐把国产GPU芯片使用起来。”
IEEE Fellow,清华大学电子工程系教授、系主任,无问芯穹发起人汪玉表示,如果要打通算力、数据、模型、应用,至少得有那么一些人,多个领域都能懂。教育的背后其实还有很多垂直方向逻辑、水平方向的逻辑,不同层次的知识都有涉及,在技术公司做过、商业化团队做过应用、对投资有一点点理解,这样的人是更丰富的,更有希望做到能够把“最后一公里”打通的人。这个世界不仅需要一些对某一个点特别着迷的人,还需要一类人把全栈打通。因此,包括教育、科研等领域都应该需要一起思考“最后一公里”的问题。
夏立雪强调,“无问芯穹始终致力于以场景尺度、计算资源与智能效率的共振,以有限的资源实现无限的需求,抵达‘智无边际、算无虚发’的终极愿景,让有计算的地方,就有‘无穹’的智能涌现。”(本文首发于钛媒体App,作者|林志佳,编辑|盖虹达)
特别声明:以上内容仅代表作者本人的观点或立场,不代表Hehson财经头条的观点或立场。如因作品内容、版权或其他问题需要与Hehson财经头条联系的,请于上述内容发布后的30天内进行。