更多大会中您关心的问题,可以通过Gangtise投研终端,在会议功能下搜索🔍英伟达(NVDA.US)2025财年第四季度业绩电话会,在页面右侧的【AI问答】小功能中提问。
AI速记
一、数据中心业务情况
季度营收情况:2025财年第四季度数据中心业务营收达356亿美元,创历史新高,较上季度增长16%,同比增长93%;2025财年营收为1152亿美元,较上一年翻倍。本季度Blackwell销售超出预期,实现110亿美元营收,这是公司历史上最快的产品增长,其生产全面展开,供应快速增加,客户采用率不断扩大。
计算与推理需求:第四季度数据中心计算营收环比增长18%,同比增长超2倍。客户急于扩展基础设施以训练下一代尖端模型并解锁更高级别的AI能力。推理需求在测试时间扩展和新推理模型的推动下加速增长,Blackwell专为推理AI推理而设计,与Hopper 100相比,可将令牌吞吐量提高25倍,成本降低20倍。
全栈平台优势:NVIDIA的全栈推理平台被各行业公司采用以提升性能和削减成本,如NAP将推理吞吐量提高了3倍并削减了66%的成本,Perplexi每月查询量达4.35亿且将推理成本降低了3倍,微软Bing实现了5倍的加速和显著的总体拥有成本(TCO)节省。CUDA的可编程架构加速了每个AI模型和超过4400个应用程序,确保在快速发展的市场中大型基础设施投资不会过时,NVIDIA提供最低的TCO和最高的投资回报率。
客户构成与地域分布:大型云服务提供商(CSP)约占数据中心营收的一半,这些销售同比增长近2倍,是最早使用Blackwell的客户之一,将GB200系统带到全球各地的云区域以满足激增的AI客户需求。区域云托管NVIDIA GPU在数据中心营收中的占比增加,反映出全球AI工厂的持续建设以及对AI推理模型和代理的需求迅速增长。
二、各行业应用情况
消费互联网领域:消费互联网营收同比增长3倍,这得益于生成式AI和深度学习用例的不断扩展,包括推荐系统、视觉语言理解、合成数据生成搜索和代理AI等。例如XAI正在采用GB200来训练和推理其下一代GROG AI模型。
企业领域:企业营收同比增长近2倍,这是由于对模型微调、检索增强生成(RAG)和代理AI工作流以及GPU加速数据处理的需求加速增长。NVIDIA推出了llama pneumatron模型系列以帮助开发者创建和部署AI代理,应用于客户支持、欺诈检测、产品供应链和库存管理等一系列应用。领先的AI代理平台提供商如SAP和ServiceNow是首批使用新模型的公司之一。
医疗保健领域:医疗保健领域的领导者如IQVIA、Illuminon、Mayo Clinic以及AHRQ Institute正在使用NVIDIA AI加速药物发现、增强基因组研究,并利用生成式和代理式AI开拓先进的医疗服务。
机器人与汽车领域:随着AI向物理世界扩展,NVIDIA的基础设施和软件平台越来越多地被用于推动机器人和物理AI开发。在汽车领域,NVIDIA的汽车垂直营收本财年预计将增长至约50亿美元。现代汽车集团宣布采用NVIDIA技术加速自动驾驶汽车和机器人开发以及智能工厂计划。
三、地区营收情况
美国地区增长强劲:从地域角度看,数据中心营收的环比增长在美国最强劲,这是由Blackwell的初始增长推动的。
全球AI生态建设:全球各国都在构建自己的AI生态系统,对计算基础设施的需求激增,如法国的2000亿欧元AI投资和欧盟的2000亿欧元Invest AI计划。
中国市场情况:在中国,数据中心解决方案市场竞争非常激烈,目前数据中心销售额占总营收的比例远低于出口管制开始时的水平,在法规不变的情况下,预计出货量将大致保持目前的比例,公司将继续在遵守出口管制的同时服务客户。
四、网络业务情况
营收与结构变化:网络业务营收环比下降3%,但与GPU计算系统相连的网络业务表现强劲,占比超过75%。公司正在从带有InfiniBand的小型NVLink 8向带有SpectrumX的大型NVLink 72过渡,SpectrumX和NVLink交换机营收增加,成为一个主要的新增长领域。
产品与市场表现:NVIDIA为扩展计算提供NVLink交换机系统,为横向扩展提供量子激励带(用于HPC超级计算机)和SpectrumX(用于以太网环境)。SpectrumX增强了用于AI计算的以太网,取得了巨大成功,微软Azure、OCI、CoreWeave等正在使用SpectrumX构建大型AI工厂,首个Stargate数据中心也将使用SpectrumX。昨天,思科宣布将SpectrumX集成到其网络产品组合中,这将有助于企业构建AI基础设施。
未来预期:预计网络业务将在第一季度恢复增长,AI需要新型网络,NVIDIA在这方面有着多种布局和产品优势。
五、游戏与AI PC业务情况
营收情况:游戏业务营收为25亿美元,环比下降22%,同比下降11%;全年营收为114亿美元,同比增长9%。尽管假期期间需求强劲,但第四季度出货量受到供应限制,预计随着供应增加,第一季度将实现强劲的环比增长。
新产品性能:新的GeForce RTX 50系列台式机和笔记本电脑GPU融合了AI和图形技术,重新定义了视觉计算。该系列由Blackwell架构提供动力,配备第五代Tensor核心和第四代RT核心,具有高达3400个AI tops,性能提升2倍,并带来新的AI驱动渲染技术,如神经着色器、数字人技术、几何和照明。新的VLSS4通过AI驱动的帧生成将帧率提高至8倍,还具有行业首个实时应用的变压器模型,包含2倍以上的参数和4倍的计算能力,以实现前所未有的视觉保真度。
笔记本电脑新品:NVIDIA还宣布了一波搭载新NVIDIA Max - Q技术的GeForce Blackwell笔记本电脑GPU,可将电池续航时间延长多达40%,这些笔记本电脑将于3月起由全球顶级制造商发售。
六、专业可视化与汽车业务情况
专业可视化业务:专业可视化业务营收为5.11亿美元,环比增长5%,同比增长10%;全年营收为19亿美元,同比增长21%。汽车和医疗保健是推动需求的关键行业垂直领域,NVIDIA技术和生成式AI正在重塑设计、工程和模拟工作负载,并且在Ansys、Cadence和Siemens等领先软件平台中得到越来越多的应用,从而推动了对NVIDIA RTX工作站的需求。
汽车业务:汽车业务营收达到创纪录的5.7亿美元,环比增长27%,同比增长103%;全年营收为17亿美元,同比增长55%。强劲增长是由自动驾驶汽车(包括汽车和机器人汽车)的持续增长推动的。在CES上,丰田将基于NVIDIA Orin构建下一代汽车,并运行安全认证的NVIDIA DriveOS;Aurora和Continental将大规模部署由NVIDIA DRIVE 4驱动的无人驾驶卡车;NVIDIA的端到端自动驾驶汽车平台NVIDIA DRIVE Hyperion已通过SUSUG和to Ryland的行业安全评估,NVIDIA是首个获得全面第三方评估的自动驾驶汽车平台。
七、财务状况与展望
毛利率情况:2025财年第四季度GAAP毛利率为73%,非GAAP毛利率为73.5%,随着Blackwell架构的首次交付,毛利率环比下降。在Blackwell增长阶段,预计毛利率将处于70%左右的低位,当Blackwell完全增长后,有机会提高成本和毛利率,预计在本财年晚些时候将回升至70% - 75%的中间水平。
运营费用:GAAP运营费用环比增长9%,非GAAP运营费用环比增长11%,这反映了新产品推出带来的更高工程开发成本以及计算和基础设施成本。
股东回报与第一季度展望:第四季度以股票回购和现金股息的形式向股东返还了81亿美元。第一季度总营收预计为430亿美元左右,上下浮动2%。预计数据中心和游戏业务将实现环比增长,数据中心内的计算和网络业务也将实现环比增长。GAAP和非GAAP毛利率预计分别为70.6%和71%,上下浮动50个基点;GAAP和非GAAP运营费用预计分别约为52亿美元和36亿美元。预计2026财年全年运营费用将增长至30% - 40%的中间水平,GAAP和非GAAP其他收入费用预计约为4亿美元(不包括不可交易和公开持有的股权证券的收益和损失),GAAP和非GAAP税率预计为17%左右,上下浮动1%(不包括任何离散项目)。
八、投资者问答情况
训练与推理架构:随着预训练、后训练和推理(如测试时间计算或长思考推理扩展)的计算需求不断变化且界限逐渐模糊,NVIDIA的架构因其通用性而受欢迎,能够运行各种模型,在训练和推理方面表现出色。Blackwell在推理方面表现尤其突出,其架构可根据不同的工作负载(如预训练、后训练或推理扩展)进行灵活配置,未来数据中心可能会更倾向于统一架构。
GB200进展:GB200的生产和部署进展顺利,尽管其机架级系统复杂,但已经取得了很大的进展。已经有很多公司成功上线了GB200系统,如CoreWeave、微软、OpenAI等,目前有350家工厂制造其组件,公司对GB200的热情不减,并且随着更多系统的交付,对其前景更加乐观。
毛利率走势:在Blackwell增长期间,毛利率将处于70%左右的低位,目前重点是加快制造以满足客户需求。当Blackwell完全增长后,成本和毛利率有望改善,预计本财年晚些时候将回升至70% - 75%的中间水平。公司有信心在未来提高毛利率,因为Blackwell系统具有可定制性,有多种网络选项,并且有液冷和风冷等不同冷却方式,存在成本优化的机会。
Blackwell Ultra需求与供应管理:Blackwell Ultra计划于今年下半年推出,尽管当前一代Blackwell仍在增长阶段,但公司已经与合作伙伴和客户进行了沟通和规划,由于Blackwell和Blackwell Ultra的系统架构相同,这次过渡会比从Hopper到Blackwell的过渡更容易,并且已经在为下一个产品(Vera Rubin)做准备,客户和供应链能够应对这两个产品的同时增长。
GPU与ASIC的平衡:NVIDIA的架构具有通用性、端到端的优势、高性能以及强大的软件栈生态系统,相比定制ASIC更具优势。NVIDIA的架构能够优化各种类型的模型,适用于多种场景(如云、本地、机器人等),并且性能提升能够直接转化为营收增长。此外,构建软件栈生态系统非常困难,而NVIDIA在这方面具有丰富的经验和优势,并且能够快速部署。
地域增长动态:美国地区数据中心营收环比增长强劲,中国的销售额占比目前保持稳定,约为出口管制前的一半。AI已经广泛应用于各个领域,成为主流技术,从长远来看,AI有机会涉及更大比例的全球GDP,因此不能单纯从地域的短期增长动态来判断公司的增长,而应从AI技术的广泛应用和发展趋势来看待公司的增长潜力。
企业与超大规模数据中心(CSP)的消费关系:企业业务增长与大型CSP类似,CSP约占业务的一半,CSP有内部和外部消费,企业既可以通过CSP使用NVIDIA的解决方案,也可以自己构建。从长远来看,企业的潜在市场规模更大,因为除了传统的企业员工使用的代理AI等应用,工业领域(如汽车制造中的汽车本身、机器人系统等)也需要新类型的AI(物理AI),这将带来更多的计算需求。
基础设施替换周期:尽管已经接近Hopper架构推出后的两年,但旧的架构(如Volta、Pascal、Ampere等)仍然在使用,因为CUDA的可编程性使得它们可以用于数据处理和数据整理等工作,新的架构(如Hopper)则用于更密集的训练工作,不同架构之间可以协同工作,根据工作负载的不同合理分配资源。
毛利率提升信心:尽管毛利率受到多种因素(如Blackwell的产量、NVLink 72和以太网的混合等)的影响,但公司有很多机会通过优化不同组件来提高毛利率。虽然目前关税对半导体的影响还不确定,但公司会在遵守出口管制和关税政策的前提下,在满足客户需求的增长阶段后,尽快开展提高毛利率的工作,如果短期内有机会提高也会积极行动。
Q&A
Q1: 对于可能专用于推理的集群,这对潜在的未来意味着什么?以及您认为这对NVIDIA及其客户的总体影响如何?
A1: 在探讨可能专用于推理的集群对潜在未来的意义以及对NVIDIA及其客户的总体影响时,需要考虑到如今存在多种扩展定律。首先是预训练扩展定律,由于多模态以及推理数据被用于预训练等因素,它将持续扩展。其次是后训练扩展定律,通过强化学习(如人类反馈、AI反馈、可验证奖励等),后训练所使用的计算量实际上高于预训练,这是因为在强化学习过程中可以生成大量的合成数据或标记。最后就是提到的测试时间计算、推理(长思考推理扩展等概念基本相同),目前其所需的推理计算量已经是大型语言模型初始单样本示例和单样本能力的100倍以上,而这仅仅是个开始。未来,下一代模型可能会有成千上万倍甚至更多的计算需求,这意味着推理集群在未来有着巨大的发展潜力。
对于NVIDIA及其客户而言,这种趋势有着多方面的影响。NVIDIA的架构在运行各种模型方面表现出色,目前大部分计算实际上是推理。像Blackwell架构在设计时就考虑到了推理模型,在训练方面性能有很大提升,在长思考、测试时间扩展、推理AI模型方面,速度提高了数十倍,吞吐量提高了25倍。这对于NVIDIA来说,有助于其在市场中保持竞争力并满足客户需求。对于客户而言,他们能够利用NVIDIA的技术构建更高效的推理集群,以应对不断增长的计算需求,从而在各自的业务领域(如人工智能相关的应用开发、数据处理等)取得更好的成果。
Q2: 如何设计这样的架构?以及如何根据现在是进行更多的预训练、后训练还是扩展推理来配置和使用数据中心呢?
A2: 关于架构设计,部分模型是自回归的,部分是基于扩散的。在数据中心的配置方面,有时希望数据中心具有分解推理功能,有时则希望是紧凑的,很难确定数据中心的最佳配置,而NVIDIA的架构之所以受欢迎,是因为它能够运行各种模型,在训练方面表现卓越,并且如今大部分计算实际上是推理。
Blackwell架构在设计时就考虑到了推理模型,在训练时性能表现更好,在长思考、测试时间扩展、推理AI模型方面,速度提高了数十倍,吞吐量提高了25倍。当需要根据预训练、后训练或者扩展推理来配置和使用数据中心时,NVIDIA的架构具有通用性并且易于在这些不同的方式下使用。实际上,我们看到如今统一架构的集中程度比以往更高。
Q3: 能否谈谈GB200?在产量提升方面进展到什么程度了?在芯片级别之上的系统级别是否仍有瓶颈需要考虑?是否仍保持对NBL 72平台的热情?
A3: 目前对于GB200的热情比在CES时更高。在产量提升方面,已经取得了显著进展。例如,有350家工厂在制造组成Blackwell机架(包括raised Blackwell racks)的150万个组件,并且已经成功地大幅提升了Grace Blackwell的产量,上个季度实现了约110亿美元的营收。由于需求很高,客户急切希望得到Blackwell系统,所以还需要继续扩大规模。
虽然在芯片级别之上的系统级别存在复杂性,例如在CES时提到过机架级系统的复杂性和面临的挑战,但目前很多Blackwell系统已经成功上线,包括NVIDIA自己的工程、设计和软件团队有相当大规模的安装,CoreWeave、Microsoft、OpenAI等也有公开的成功上线案例。所以尽管面临困难,但进展顺利,合作伙伴也表现出色。
Q4: Colette, 如果不介意的话请确认一下Q1是否是毛利率的底部。Jensen, 你仪表盘上有什么能让你有信心这种强劲需求能持续到明年,并且无论他们提出什么创新是否改变了这种看法?
A4: 对于毛利率问题,在Blackwell产量提升期间,毛利率将处于70%出头的水平。目前重点是加快制造速度,以尽快向客户提供产品。当Blackwell完全提升产量后,可以改善成本从而提高毛利率,预计今年晚些时候可能达到70%中期的水平。因为Blackwell系统具有可定制性,有多种网络选项,还有液冷和水冷等不同方式,所以有提高毛利率的机会,但当前还是先专注于完成制造并尽快交付给客户。
从Jensen的角度来看,有几个方面让他有信心这种强劲需求能持续到明年。首先,对数据中心的资本投资规模有较好的了解。其次,未来绝大多数软件将基于机器学习,加速计算、生成式AI、推理AI将是数据中心所需的架构类型。再者,有来自顶级合作伙伴的预测和计划。此外,还有许多创新且令人兴奋的初创公司正在涌现,它们是开发AI下一个突破点的新机会,无论是代理AI、推理AI还是物理AI,每个初创公司都需要相当数量的计算基础设施。从短期信号(如采购订单和预测等)、中期信号(如基础设施和资本支出规模与往年相比的情况)以及长期信号(软件从在CPU上运行的手工编码转变为在GPU和加速计算系统上运行的基于机器学习和AI的软件)来看,都能表明这种需求的可持续性。而且目前只触及了消费者AI、搜索、部分消费者生成式AI和广告等领域,下一波如企业代理AI、机器人物理AI和不同地区构建自身生态系统的主权AI等都还刚刚起步,在NVIDIA处于众多发展的中心位置能看到这些积极的活动,所以无论是近期、中期还是长期,这种强劲需求都有望持续。
Q5: Jensen, 考虑到仍在提升当前一代Blackwell解决方案的产量,能否帮助我们理解Ultra的需求动态?客户和供应链如何管理这两种产品同时提升产量?团队是否仍有望在今年下半年执行Blackwell Ultra?
A5: Blackwell Ultra计划于今年下半年推出。虽然目前仍在提升当前一代Blackwell解决方案的产量,但这并不影响Blackwell Ultra的推进。之前第一代Blackwell遇到过一些小问题,可能耽误了几个月,但已经完全恢复,团队在恢复过程中表现出色,众多供应链伙伴等也提供了帮助。现在已经成功提升了Gladwell的产量。
对于客户和供应链来说,由于Blackwell和Blackwell Ultra之间的系统架构完全相同,这与从Hopper到Blackwell的转变不同(从MVLink 8系统到MVLink 72基础系统,底盘、架构、硬件、供电等都需要改变,是一个相当具有挑战性的转变),所以在管理两种产品同时提升产量方面相对容易。NVIDIA一直在与所有的合作伙伴和客户合作,向他们提供必要的信息,以实现平稳过渡。并且已经在和合作伙伴紧密合作规划下一个产品Vera Rubin的相关事宜,合作伙伴也在为这些过渡做准备。
Q6: 你能否谈谈定制ASIC和商用GPU之间的平衡?客户是否打算构建这些异构超级集群,还是这些基础设施将保持相当不同?
A6: NVIDIA的架构与ASIC在很多方面存在差异。首先,NVIDIA的架构具有通用性,无论是针对自回归模型、基于扩散的模型、视觉模型、多模态模型还是文本模型的优化,都能很好地处理,这是因为其软件栈灵活,架构生态系统丰富,是大多数令人兴奋的算法创新的初始目标,所以NVIDIA的架构比ASIC更通用。其次,NVIDIA在从数据处理、训练数据的管理到训练、后训练中的强化学习,一直到带有测试时间扩展的推理等端到端的流程中表现出色。再者,NVIDIA的架构可应用于多种场景,不限于某一个云平台,可以是本地部署,也可以应用于机器人等,对于新成立的公司来说是一个很好的初始目标,所以其架构的可及性更高。最后,NVIDIA的性能和发展节奏非常快,由于数据中心在规模或功率上通常是固定的,NVIDIA架构的性能每瓦特提升2 - 8倍(这并不罕见)会直接转化为收入,因为AI工厂可通过生成的标记直接盈利,所以NVIDIA架构的高吞吐量对那些出于盈利目的构建这些设施以获取快速投资回报的公司来说非常有价值。
此外,软件栈构建难度很大,构建ASIC与构建NVIDIA架构类似,都需要构建新的架构,而且如今架构之上的生态系统比两年前复杂了十倍,因为基于架构构建的软件数量呈指数级增长,AI发展迅速,所以在多个芯片上构建整个生态系统是困难的。而且,芯片设计出来并不意味着会被部署,在部署新的引擎到有限的AI工厂(在规模、功率和时间方面有限)时,需要做出商业决策,NVIDIA的技术不仅更先进、性能更高,而且软件能力更强,部署能力也非常快。综上所述,NVIDIA在与定制ASIC的竞争中有诸多优势。
关于客户是否打算构建异构超级集群,虽然有听说使用GPU和ASIC的异构超级集群,但由于NVIDIA架构的优势,目前基础设施仍然保持相当的不同。
Q7: 我想知道随着这一年的推进,如果美国这种增长势头持续,这是否可行,并且如果这是你们增长率的基础,在向美国这种混合转变的情况下你们如何能保持如此快速的增长?我想知道你能否梳理一下这种动态并可能总结并发表意见?
A7: 从地域角度来看,AI已经成为主流软件,融入到了各种应用中。在中国方面,其占比与第四季度和之前季度大致相同,约为出口管制前的一半。而在美国,AI的应用场景无处不在,如配送服务、购物服务、教育领域(学生将AI用作辅导工具)、医疗保健、金融服务(所有金融科技公司都会使用AI)、气候技术、矿产发现、高等教育等各个领域都在使用AI。
由于AI已经融入到如此多的领域,其市场规模巨大,并且未来所有软件和服务最终都将基于机器学习,数据飞轮将成为改进软件和服务的一部分,未来的计算机也将基于AI加速发展。目前我们正处于这个新的转型初期,仅仅是现代化计算机进程的两年,而之前构建传统计算机已经花费了数十年。并且AI作为一种软件工具,有机会涉及到世界GDP的更大份额,比历史上任何时候的软件工具都要多。所以从这个角度来看,目前的增长只是一个开端。
在这种背景下,即使美国的增长势头持续,随着AI在全球各个领域的不断渗透,无论是在美国还是其他地区,都有巨大的增长空间。NVIDIA在全球范围内为各种AI应用提供技术支持,随着AI的普及和发展,其业务增长是基于全球范围内的广泛需求,而不仅仅依赖于某个地区的增长,所以即使存在向美国的混合转变,仍然能够保持快速增长。
Q8: 你是否说过数据中心内的企业业务同比增长了2倍(针对1月季度)?如果是这样,那是否比超大规模企业增长得更快?你能否让我们了解一下超大规模企业的支出在外部工作负载和内部工作负载之间是如何分配的?随着这些新的人工智能工作流程和应用的出现,你是否预计企业将在消费组合中占据更大的份额?这是否会影响你如何开发你的服务和生态系统?
A8: 是的,数据中心内的企业业务在1月季度同比增长了2倍,与大型云服务提供商(CSPs)的增长情况相似。CSPs是NVIDIA业务的重要组成部分,约占一半,它们有内部和外部消费。NVIDIA与CSPs密切合作,优化其内部工作负载,因为CSPs拥有大量NVIDIA设备基础设施,可以利用NVIDIA的技术进行AI、视频处理、数据处理(如Spark)等多种工作,这样基础设施的使用寿命更长,总体拥有成本(TCO)也更低。
从长远来看,企业业务的增长潜力更大。以汽车公司为例,企业员工使用的代理AI、软件规划系统和工具等属于企业业务范畴,这些可以提高员工的生产力,用于设计、营销、规划和运营公司;而汽车制造本身也需要AI,用于训练汽车、管理庞大的车队,未来每一辆汽车都可能是机器人汽车,会收集数据并通过AI工厂进行改进,汽车内部本身也是一个机器人系统。除了汽车行业,其他如工业、制造业、建筑、仓库等物理系统都需要一种新的AI,即物理AI,这种AI不仅要理解语言文字的含义,还要理解世界的物理意义,如摩擦、惯性、物体恒存性、因果关系等。所以,企业业务涵盖了代理AI用于企业内部工作方式的变革以及物理AI用于各种物理系统等多个方面,这仅仅是开始,未来企业业务的增长空间巨大。
随着新的AI工作流程和应用的出现,企业在消费组合中预计将占据更大的份额。这会影响NVIDIA服务和生态系统的开发,例如会促使NVIDIA开发更多针对企业需求的服务,如针对不同行业(汽车、工业等)的特定AI解决方案,优化与企业相关的工作负载,加强与企业在AI技术应用方面的合作等,以满足企业在AI应用方面不断增长的需求。
Q9: 我们现在即将迎来2023年通用人工智能跳跃式转折的两周年,当我们思考摆在我们面前的路线图时,从替换周期的角度来看,你如何看待已经部署的基础设施,以及是否会出现像GB300或者鲁宾周期那样的更新机会?我只是好奇你如何看待这个问题?
A9: 目前人们仍然在使用Volta、Pascal和Ampere等架构。这是因为CUDA具有很强的可编程性,例如在数据处理和数据管理方面有很大的用途。当发现AI模型在某些情况下表现不佳时,可以将这种情况呈现给视觉语言模型,视觉语言模型会分析情况并指出问题所在,然后根据这个反馈去提示AI模型在数据湖中查找类似情况,再利用AI进行域随机化并生成更多示例,最后用这些数据来训练模型。所以Ampere等架构可以用于数据处理、数据管理和基于机器学习的搜索,然后创建训练数据集,再将其提供给Hopper系统进行训练。
这些架构都是CUDA兼容的,所以所有的架构之间都可以运行相关任务。如果已经有了现有的基础设施,可以将强度较低的工作负载放在这些旧的基础设施上。对于已经部署的基础设施,从替换周期的角度来看,虽然存在像GB300或者鲁宾周期这样可能的更新机会,但由于旧架构仍然可以承担部分工作,所以目前仍然会继续使用,并且不同架构之间可以协同工作,以满足不同的计算需求。
Q10: 我有一个关于Colette毛利率的后续问题。
A10: 毛利率是一个相当复杂的问题,特别是在Blackwell系统中,涉及到材料等众多组成部分。在提高毛利率方面有很多机会,可以从很多不同的方面去研究如何随着时间推移更好地提高毛利率。Blackwell有很多不同的配置,这有助于提高毛利率。在为客户完成一些强劲的产量提升工作之后,就可以开始很多提高毛利率的工作,如果可以的话,也会尽快开始,如果在短期内能够改善,也会去做。
关于关税方面,目前还不太明确,因为还需要进一步了解美国政府的计划,包括时间、范围和金额等方面,目前只能等待。但NVIDIA会遵循出口管制和关税相关的规定。
(转自:Gangtise投研)