英伟达适配 DeepSeek-V4 AI 模型,开箱性能超 150 tokens/sec/user
前天
英伟达于 4 月 25 日发布博文,宣布 NVIDIA Blackwell 平台已适配 DeepSeek-V4-Pro 与 DeepSeek-V4-Flash 两款模型。DeepSeek-V4-Pro 拥有 1.6T 总参数量与 49B 激活参数,定位高级推理任务。DeepSeek-V4-Flash 有 284B 总参数量与 13B 激活参数,主打高速高效场景。两款模型均支持 100 万 Token 上下文窗口与最高 38.4 万 Token 输出长度,采用 MIT 开源协议。DeepSeek-V4-Pro 在 NVIDIA GB200 NVL72 上开箱即用性能超 150 tokens /sec/user,借助 vLLM 可在 Blackwell B300 上快速部署,预期性能将进一步提升。开发者可通过 NVIDIA NIM 微服务下载部署,或利用 SGLang 与 vLLM 框架进行定制化推理。
2026-03-17
英伟达发布 NemoClaw,强化自主 AI Agent 安全与隐私2026-03-10
英伟达将推出面向 AI 智能体的开源平台2026-02-28
消息称英伟达计划推出新芯片2025-08-19
英伟达正开发新款「中国特供」AI 芯片,性能强于 H202025-07-10
黄仁勋将访华,英伟达新款中国特供芯片最快 9 月推出2025-06-27
英伟达 H20 芯片短缺影响 DeepSeek-R2 AI 模型开发进度2025-05-25
消息称英伟达面向中国推降级版 AI 芯片 售价远低于 H202025-05-21
英伟达:DeepSeek 将人工智能计算需求提高了 100 至 1000 倍2025-05-07
超越 DeepSeek-R1,英伟达开源新推理模型 Llama-Nemotron2025-03-28
DeepSeek 带动算力需求急涨,英伟达大陆特供 GPU「爆单」查看更多
体验专业版特色功能,拓展更丰富、更全面的相关内容。