2025 外滩大会:蚂蚁、人大发布首个原生 MoE 扩散语言模型,将于近期开源
2025 年 9 月 12 日
2025 外滩大会上,蚂蚁集团和中国人民大学联合发布业界首个原生 MoE 架构的扩散语言模型「LLaDA-MoE」。该模型在约 20T 数据上从零训练,验证了工业级大规模训练的扩展性和稳定性,效果超 LLaDA1.0/1.5 和 Dream-7B,比肩等效自回归模型且推理速度快数倍。它挑战「语言模型必须自回归」认知,在多任务上性能领先,仅激活 1.4B 参数即可实现等效 3B 稠密模型性能。蚂蚁与人大团队攻关 3 个月取得核心难题突破,在多项基准上平均提升 8.4%。模型将近期完全开源,包括模型权重、自研推理框架及针对 dLLM 并行特性优化的推理引擎,相关代码与技术报告将在社区发布。蚂蚁将持续投入基于 dLLM 的 AGI 领域,推动新突破。
2026-02-13
蚂蚁集团开源 Ring-2.5-1T,全球首个混合线性架构万亿参数思考模型来了2026-02-11
蚂蚁集团开源全模态大模型 Ming-flash-omni 2.02025-12-12
蚂蚁开源首个 100B 扩散语言模型 LLaDA2.02025-11-20
蚂蚁开源万亿参数强化学习高性能权重交换框架 Awex2025-11-06
蚂蚁集团于世界互联网大会首次展出百灵大模型家族产品2025-10-14
蚂蚁发布并开源万亿参数思考模型 Ring-1T2025-10-09
蚂蚁发布万亿参数旗舰模型 Ling-1T 并开源2025-09-30
蚂蚁开源首个万亿参数推理大模型,迈入 1T 模型阵营2025-09-12
2025 外滩大会:蚂蚁、人大发布首个原生 MoE 扩散语言模型,将于近期开源2025-08-09
武大、蚂蚁集团发布新一代遥感大模型查看更多
体验专业版特色功能,拓展更丰富、更全面的相关内容。