
蚂蚁百灵大模型团队今日正式推出 Ring-mini-2.0,这是一款基于 Ling-mini-2.0 架构深度调优的高性能推理型 MoE 模型(Thinking model)。该模型总参数量为 16B,实际推理时仅激活 1.4B 参数,便能实现与 10B 以下 dense 模型相当甚至更优的综合推理能力,尤其在逻辑推理、编程和数学任务中表现亮眼,同时支持 128K 长上下文输入,并具备高达 300+ token/s 的生成速度。
Ring-mini-2.0 以 Ling-mini-2.0-base 为起点,通过 Long-COT 监督微调、大规模 RLVR 训练以及 RLHF 联合优化等关键技术路径,持续强化其复杂推理的稳定性和跨任务泛化能力。在多个高难度评测基准(如 LiveCodeBench、AIME 2025、GPQA、ARC-AGI-v1 等)上,当输出长度一致时,其性能显著优于主流 10B 级别以下的 dense 模型,部分指标接近甚至媲美更大规模的 MoE 模型(例如 gpt-oss-20B-medium),尤其在逻辑推理维度展现出领先优势。

目前,Ring-mini-2.0 已完成全面开源,包括模型权重、训练方法及数据构建方案均向社区开放,致力于推动高效推理模型的技术发展与应用落地。
HuggingFace:https://www.php.cn/link/3fcee1ea342699e1bf18973b242f9b65
ModelScope:https://www.php.cn/link/87ac1c683493632381219d10cf86cb2a
以上就是蚂蚁百灵大模型团队开源高性能推理 MoE 模型 Ring-mini-2.0的详细内容,更多请关注php中文网其它相关文章!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号