不换GPU,性能飙升2.8倍!英伟达用软件暴打摩尔定律
![]()
新智元报道
编辑:peter东
【新智元导读】MoE模型的稀疏激活本是优势,却常陷通信瓶颈。NVIDIA以软件为利剑,通过程序化依赖启动和全对全通信革新,在三个月内将GB200的单GPU吞吐提升2.8倍,真正释放Blackwell硬件潜力。
2026年1月8日,NVIDIA再次用硬核数据刷新AI推理的性能上限。
英伟达官网披露:基于Blackwell架构的推理软件栈升级,让混合专家模型(MoE)的推理效率迎来「阶跃式」突破——
单GPU吞吐飙升2.8倍,显著降低了推理成本。
GB200 NVL72:为MoE而生
英伟达为何这次能只使用软件升级就实现如此显著的性能提升,这归因于MoE模型的特殊性。
以DeepSeek-R1为例,这个6710亿参数的稀疏MoE模型,每次推理仅激活370亿参数(「稀疏激活」),看似「轻量」,实则暗藏算力挑战:专家模块间的动态路由需要高频数据交换,预填充(prefill)与解码(decode)阶段的计算负载差异大,传统架构极易因通信瓶颈或精度损失陷入「性能墙」。同时MoE架构中的多个模型需要频繁通信。
英伟达给出的应对之法,是在本身的硬件基础上,通过软件针对性升级,从而发挥出硬件的潜力。
![]()
图1:GB200 NVL72机柜
GB200 NVL72机架级平台是本次突破的「物理基石」。
它通过第五代NVLink互连72块Blackwell GPU,GPU之间具有1800GB/s双向带宽高速连接——这一设计是基于稀疏 MoE 架构模型专门进行的优化,相当于给72个「专家大脑」装上了「超高速神经突触」,让专家间的数据交换告别「拥堵」。
软件层面的更新,首先是NVFP4四比特浮点格式。
相比传统FP4,NVFP4通过NVIDIA自研的数值分布优化,在压缩数据量的同时,最大限度保留了模型精度(这对MoE的稀疏激活至关重要,避免因精度损失导致路由错误)。
配合硬件级NVFP4加速单元,Blackwell让模型使用低精度计算,但却能够相比其他 FP4 格式,具有更高的准确性。
![]()
图2:在 HGX B200 上,开启NVFP4与FP8时的吞吐量与交互性曲线对比
此外,「分解服务」(disaggregated serving)策略进一步释放了GB200的潜力:将预填充(计算密集型)与解码(内存密集型)分配到不同GPU组,利用NVLink Switch的灵活拓扑实现「计算-内存」解耦,避免单一资源成为瓶颈。
软件引擎
TensorRT-LLM三个月狂飙2.8倍吞吐
如果说硬件是「基础」,软件则是「引擎调校」。NVIDIA TensorRT-LLM开源库的近期优化,让GB200 NVL72在DeepSeek-R1上的单GPU吞吐,过去三个月直接飙升2.8倍。
具体来看,三大优化堪称「性能催化剂」:
1、程序化依赖启动(PDL)
通过减少内核启动延迟,让GPU「时刻待命」,尤其在低交互性(高吞吐)场景下,显著降低「空转」损耗;
2、底层内核优化
针对Blackwell Tensor Core的微架构特性,重构计算流水线,让每一份算力都用在「刀刃」上;
3、全对全通信原语革新
消除接收端中间缓冲区,直接减少数据传输的「绕路成本」——这对MoE的专家间高频通信而言,相当于减少了延迟。
上述三项创新,使得GB200在运行DeepSeek R1时,相比2025年10月的软件版本,获得更高的吞吐量。
![]()
图3:软件更新给GB200带来的性能提升
随着AI从「能用」走向「好用」,用户对交互性的要求激增——聊天机器人要「秒回」,代码助手要「实时补全」,而吞吐量的上升,意味着更低的延迟。
小机柜也适用,
HGX B200也能跑满足DeepSeek
并非所有场景都需要GB200 NVL72这样的包含72块显卡的「巨无霸」。
对于风冷部署的企业或云服务商,NVIDIA HGX B200(8卡Blackwell)同样交出了惊艳答卷——其核心武器是多token预测(MTP)与NVFP4的组合拳。
传统推理中,模型逐token生成,每一步都要等待前一步完成;而MTP通过预测多个候选token(而非单个),让GPU在一次计算中覆盖更多生成步骤,相当于在解码任务时批量处理,「一次思考,多步输出」。
![]()
图4:MTP及不同精度带来的性能提升
实测显示,在1K/1K、8K/1K、1K/8K等多种输入输出序列组合下,MTP均显著提升了吞吐量,且交互性越高(延迟要求越严),收益越明显。
当MTP遇上NVFP4,性能增益被进一步放大。NVFP4不仅通过四比特压缩降低内存带宽压力,更依托Blackwell的张量核心实现高效计算。
结合TensorRT-LLM与TensorRT Model Optimizer的全栈支持,HGX B200在保持精度的前提下,吞吐曲线随MTP+NVFP4的启用持续右移——意味着在相同交互性下能服务更多用户,或在相同用户数下提供更流畅的体验。
对企业与云服务商而言,现有Blackwell GPU通过软件升级即可获得2.8倍吞吐提升,相当于「免费扩容」,大幅延长硬件生命周期;对模型开发者,TensorRT-LLM 提供了一个高级的API。
原生PyTorch架构给开发者提供了兼具易用性与扩展性的结果,这降低了优化门槛,让更多人能聚焦模型创新而非底层调优
这种「不依赖换硬件就能升级性能」的能力,让英伟达在专业显卡领域的护城河相比AMD,英特尔等竞争者更深。
Blackwell架构+TensorRT-LLM的组合,在MoE推理问题上,做到了在「高精度、低延迟、高吞吐、低成本」间的既要又要。英伟达的护城河不止是芯片,更是那套能「从石头里榨出血来」的软件生态。
参考资料:
https://developer.nvidia.com/blog/delivering-massive-performance-leaps-for-mixture-of-experts-inference-on-nvidia-blackwell/
相关文章
- Manus收购被叫停的启示
- 不好,CPU 也要被干涨价了。
- GPU神话松动,AI真正的战场变了
- Manus未解之谜:退回20亿美金
- DeepSeek V4最大的遗憾
- 你的「龙虾」真记得你吗?剑桥发布长期个性化记忆基准ATM-Bench
- 突发!库克卸任苹果CEO,一个时代结束了
- OpenAI高管发长文怒批Anthropic:年化营收被高估500多亿!
- 给“人造太阳”装上大脑,是一门什么样的生意?
- 刚火就翻车,Hermes Agent被质疑抄袭中国团队
- Anthropic 要亲手杀死 Figma 了吗?
- 苹果漏洞预警之后,为什么没有“吹哨人”?
- 刚刚,奥特曼家被炸了!
- 禁忌的红利:当Anthropic开始贩卖“末日保险”
- “唐僧”妻子陈丽华去世,470亿商业帝国谁来继承?
- 一场全面入侵,字节被逼急了
- 刚刚,阿里官方认领神秘「欢乐马」,来自ATH郑波团队
- OpenAI挂倒车档,1岁的Sora被“安乐死”
- 它们纷纷涨价后,年轻人的旧手机忽然不卡了
- 人民日报评张雪机车夺冠
网友评论
评论加载中...推广链接
最新文章快读
文章随机推荐
- 全椒许安居小区砍人杀人命案 男子砍死自己老婆
- 张保情妇是谁?张保情妇宋利资料照片 宋利背景
- 安徽书记张宝顺下乡蹲点 与农民同插黄瓜秧(图)
- 《朝鲜停战协定》又被废 韩媒:朝政府机关已移至地下
- 小改变救人一生!LOL职业选手激励绝望玩家
- 永州零陵区胖子烧烤摊位门口持管制刀具斗殴事件
- 中国最大民企下场造车?搅局外卖后,刘强东进军新能源
- 【以案释法】网络不是法外之地 网暴他人要担责
- 张铁林再报丑闻 风流成性勾引女学生搞出私生子
- 芜湖滨江大剧院附近汽车燃烧 两人伤亡
- 昆明暴恐案伤者:本想回家治病 当场背后中刀
- 美媒:中俄敲定东西伯利亚油气田联合开发协议
- 突发!三江独峒镇今晨发生寨火,烧毁民房10座2人遇难
- 网购保险谨慎填写个人信息
- 长江宜昌水域再现死猪 爬满蛆虫顺流而下
一周热门文章推荐
- 不换GPU,性能飙升2.8倍!英伟达用软件暴打摩尔定律
- Manus收购被叫停的启示
- 不好,CPU 也要被干涨价了。
- GPU神话松动,AI真正的战场变了
- Manus未解之谜:退回20亿美金
- DeepSeek V4最大的遗憾
- Sejda云端极速修改征信报告文件的底层元属性无痕
- Inkscape硬核魔改征信报告文件密码破解方法
- 第三方背调不是走形式,征信报告真实性会被重点核验是
- 征信做假真的可以ps修改一份不被发现吗?
- 入职背调征信报告越来越严格,如何利用工具真正做到无
- 企业已经把征信报告修改纳入员工准入审核体系具体检查
- 2026最新版本PDF征信进行轻量化修改编辑的方法
- 征信报告ps无痕修改最新指南避免踩坑
- 编辑征信报告PDF文字的方法步骤以及无痕保存的方法
