2025外滩大会:蚂蚁、人大发布首个原生MoE扩散语言模型,将于近期开源
上周五

2025外滩大会上,蚂蚁集团中国人民大学联合发布业界首个原生MoE架构的扩散语言模型「LLaDA-MoE」。该模型在约20T数据上从零训练,验证了工业级大规模训练的扩展性和稳定性,效果超LLaDA1.0/1.5和Dream-7B,比肩等效自回归模型且推理速度快数倍。它挑战「语言模型必须自回归」认知,在多任务上性能领先,仅激活1.4B参数即可实现等效3B稠密模型性能。蚂蚁与人大团队攻关3个月取得核心难题突破,在多项基准上平均提升8.4%。模型将近期完全开源,包括模型权重、自研推理框架及针对dLLM并行特性优化的推理引擎,相关代码与技术报告将在社区发布。蚂蚁将持续投入基于dLLM的AGI领域,推动新突破。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟