英伟达 AI 芯片 H200 开始供货,性能相比 H100 提升 60%-90%
2024 年 3 月 29 日

英伟达发布了一款名为H200的尖端图像处理半导体(GPU),面向AI领域,性能超过当前主打的H100。以Meta公司旗下大语言模型Llama 2处理速度为例,H200相比于H100,生成式AI导出答案的处理速度最高提高了45%。英伟达在AI半导体市场约占8成分额,竞争对手AMD等也在开发对抗产品。英伟达还宣布,将在年内推出新一代AI半导体「B200」,新产品将用于最新的LLM上。GB200是「最强AI加速卡」,包含了两个B200 Blackwell GPU和一个基于Arm的Grace CPU,推理大语言模型性能比H100提升30倍,成本和能耗降至25分之一。H200是英伟达第一款使用HBM3e内存的芯片,性能直接提升了60%到90%。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟