首页 > 新闻 > IT新闻 > 正文

蚂蚁与中国人民大学发布首个原生 MoE 扩散语言模型

碧海醫心
发布: 2025-09-12 12:11:01
原创
781人浏览过

蚂蚁与中国人民大学发布首个原生 moe 扩散语言模型

蚂蚁集团联合中国人民大学正式发布业界首个基于原生MoE架构的扩散语言模型(dLLM)——“LLaDA-MoE”。

该模型采用非自回归的掩码扩散机制,突破了传统语言模型依赖自回归生成的固有范式,在上下文学习、指令理解、代码生成与数学推理等多项核心能力上达到与Qwen2.5系列相当的水平,有力挑战了“语言生成必须逐字递进”的主流观点。

实验结果表明,LLaDA-MoE在代码编写、数学解题及智能Agent任务中的表现显著优于LLaDA1.0/1.5和Dream-7B等现有扩散语言模型,并在多项指标上接近甚至超越自回归模型Qwen2.5-3B-Instruct。值得注意的是,该模型仅需激活1.4B参数即可实现与3B全参数稠密模型相媲美的性能,充分展现了MoE架构在提升计算效率方面的优势。

“LLaDA-MoE的成功训练验证了dLLM在工业级大规模场景下的可扩展性与稳定性,标志着我们在通往更大规模扩散语言模型的路上迈出了关键一步。”蚂蚁集团通用人工智能研究中心主任、西湖大学特聘研究员、西湖心辰创始人蓝振忠在发布会上表示。

ChatX翻译
ChatX翻译

最实用、可靠的社交类实时翻译工具。 支持全球主流的20+款社交软件的聊天应用,全球200+语言随意切换。 让您彻底告别复制粘贴的翻译模式,与世界各地高效连接!

ChatX翻译 77
查看详情 ChatX翻译

中国人民大学高瓴人工智能学院李崇轩副教授指出:“尽管过去两年大模型取得了飞速进展,但一些根本性问题依然存在。这背后的核心原因在于当前主流模型普遍采用自回归方式——即单向地从前往后预测每一个token,导致难以建模token间的双向交互关系。”

为突破这一瓶颈,部分研究者开始探索并行解码的扩散语言模型路径。然而,现有的dLLM大多基于全参数稠密结构,无法继承ARM中MoE架构所具备的‘扩大参数、按需计算’的优势。在此背景下,蚂蚁与人大联合团队率先实现技术突破,推出了全球首个原生支持MoE结构的扩散语言模型LLaDA-MoE。

蓝振忠还宣布,团队将在近期全面开源LLaDA-MoE的模型权重及其自主研发的高效推理框架,旨在携手全球开发者共同推动通用人工智能(AGI)的下一轮跃迁。

以上就是蚂蚁与中国人民大学发布首个原生 MoE 扩散语言模型的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号