北京pk10官方网站 业界首个!蚂蚁开源万亿参数夹杂线性念念考模子,IMO金牌水平


智东西2月13日音尘,今天,蚂齐集团开源公共首个基于夹杂线性架构的万亿参数念念考模子Ring-2.5-1T。
凭证官方信息,比较蚂蚁2025年10月发布的万亿级念念考模子Ring-1T,Ring-2.5-1T在生成成果、推理深度和万古程任求实施才智三个关节维度上竣事擢升,且在长文本生成、数学推理与智能体任求实施上达到开源起首水平。
在生成成果上,Ring-2.5-1T在32K以上长文本生成场景中,对比上代模子访存领域镌汰至1/10,生成费解擢升3倍以上。
在深度念念考才智方面,该模子在海外数学竞赛(IMO 2025)和中国数学奥林匹克(CMO 2025)自测均达到金牌水平,IMO为35分、CMO为105分。

当今,该模子也曾适配Claude Code等智能体框架与OpenClaw个东说念主AI助理,撑执多步野心与用具调用。
Ring-2.5-1T的模子权重与推理代码已在Hugging Face、ModelScope等主流开源平台发布,官方平台Chat体验页和API做事将在近期上线。
Hugging Face:https://huggingface.co/inclusionAI/Ring-2.5-1T
ModelScape:https://modelscope.cn/organization/inclusionAI
一、拿下多项开源SOTA,达IMO金牌水平
为了评估Ring-2.5-1T的深度念念考与万古任求实施才智,蚂蚁议论东说念主员取舍了具有代表性的开源念念考模子DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking和闭源API GPT-5.2-thinking-high、Gemini-3.0-Pro-preview-thinking-high、Claude-Opus-4.5-Extended-Thinking行动比较。
蚂齐集团公布的多项泰斗基准测试终结表示,Ring-2.5-1T在数学、编程和逻辑推理的IMOAnswerBench、AIME 26、HMMT 25、LiveCodeBench、ARC-AGI-V2等高难度推理任务以及Agent搜索、用具调用和软件工程Gaia2-search、Tau2-bench和SWE-Bench Verified等万古任求实施方面均竣事了起初进的开源性能。
此外,蚂蚁还对深度念念考(Heavy Thinking)阵势下的模子性能进行了稀奇测试,Ring-2.5-1T在IMOAnswerBench、HMMT-25等数学竞赛推理基准和LiveCodeBench-v6代码生成基准中卓越所有这个词对比模子。
其中,在IMO 2025(满分42分)中,Ring-2.5-1T赢得35分,达到金牌水平;在CMO 2025(满分126分)中,该模子赢得105分,跨越金牌分数线78分和国度队集训队聘任线87分。
议论东说念主员比较了Ring-2.5-1T和Ring-1T的谜底发现,前者在推理逻辑的严谨性、高等数学解说时代的诈欺以及谜底表述的完满性方面均有擢升。
在智能体搜索任务Gaia2-search中,Ring-2.5-1T在开源模子中取得了SOTA性能。Gaia2环境强调跨诈欺用具合作和复杂任求实施才智,Ring-2.5-1T在野心生成和多步用具调用方面均展现出较高的成果和准确性。
二、三大关节维度擢升,能快速适配Claude Code、OpenClaw
比较蚂蚁2025年10月发布的万亿级念念考模子Ring-1T,Ring-2.5-1T在生成成果、推理深度和万古程任求实施才智三个关节维度上有显耀修订。
{jz:field.toptypename/}起首在生成成果方面,通过选择高比例线性细致力机制,Ring-2.5-1T将内存探询支出镌汰至1/10,并将跨越32K token序列的生成费解量提高了3倍以上,适用于深度念念考和万古程任求实施。
其次在深度念念考层面,北京pk10该模子在RLVR(基于可考证奖励的强化学习)基础上引入密集奖励机制,为推理过程提供严格性反馈,使Ring-2.5-1T同期达到IMO 2025和CMO 2025(自测)的金奖水平。
终末是长程任求实施,Ring-2.5-1T通过大领域皆备异步智能体RL(强化学习)磨练,增强了责罚复杂任务的万古程自主实施才智,使其能快速适配Claude Code等智能体编程框架和OpenClaw个东说念主AI助手。
三、引入夹杂线性细致力架构,可擢升长程推理场景费解量
Ring-2.5-1T基于Ling 2.5架构,通过优化细致力机制,可擢升长文本推理的成果与踏实性。
行动竣事自主模子架构的关节进展,Ling 2.5架构在Ling 2.0架构的基础上引入了一种夹杂线性细致力架构。通过增量磨练,议论东说念主员将Ling 2.0架构中的GQA(分组查询细致力)升级为MLA(多头线性细致力)+Lightning Linear结构的1:7比例。
具体来说,基于其先前发布的Ring-flash-linear-2.0时代阶梯图,议论东说念主员将部分GQA层转机为Lightning Linear细致力,以擢升万古程推理场景中的费解量。
同期为了进一步压缩KV缓存,议论东说念主员将剩余的GQA层类似转机为MLA,同期针对QK Norm(查询-核归一化)和Partial RoPE(部分旋转位置编码)等特征进行针对性修订,从而增强Ling 2.5架构的抒发才智。

在此基础上,模子激活参数领域从前代的51B擢升至63B,何况在夹杂线性细致力架构的撑执下,其推理成果比较Ling 2.0仍竣事大幅擢升。
与仅具备32B激活参数的Kimi K2架构比较,在1T总参数目下,Ling 2.5架构在长序列推理任务中的费解发达上风显耀,且跟着生成长度增多,成果上风执续扩大。

▲在一台配备8块H20-3e GPU的机器上,批处理大小=64,比较不同生成长度下的解码费解量

▲在一台配备8块H200 GPU的机器上,批处理大小=64,比较不同生成长度下的解码费解量
结语:从短对话到复杂野心,大模子需冲破长文本瓶颈
跟着AI大模子诈欺从短对话向长文档处理、跨文献代码知道、复杂任务野心等场景彭胀,Ring-2.5-1T不错缓解模子在长输出场景下计议支出高、推理速率慢的问题。
此前,传统架构在面对超长文本、多模态本色、复杂业务历程时,无数濒临算力老本高、反映延伸大、部署难度高等问题,蚂蚁百灵团队这次通过底层架构编削,或为行业提供一条兼顾性能、老本与彭胀性的时代旅途。

备案号: