2025外滩大会上,蚂蚁集团和中国人民大学联合发布业界首个原生MoE架构的扩散语言模型「LLaDA-MoE」。该模型在约20T数据上从零训练,验证了工业级大规模训练的扩展性和稳定性,效果超LLaDA1.0/1.5和Dream-7B,比肩等效自回归模型且推理速度快数倍。它挑战「语言模型必须自回归」认知,在多任务上性能领先,仅激活1.4B参数即可实现等效3B稠密模型性能。蚂蚁与人大团队攻关3个月取得核心难题突破,在多项基准上平均提升8.4%。模型将近期完全开源,包括模型权重、自研推理框架及针对dLLM并行特性优化的推理引擎,相关代码与技术报告将在社区发布。蚂蚁将持续投入基于dLLM的AGI领域,推动新突破。