连续发布两款万亿参数模型,蚂蚁 AI 来势汹汹

文章摘要
【关 键 词】 大模型、开源生态、万亿参数、技术竞赛、AGI探索
大模型开源生态近期迎来密集动态,国内外头部团队在国庆期间持续推出重磅产品。阿里、DeepSeek、Anthropic等企业相继发布Qwen3-Max、DeepSeek V3.2-Exp等针对性产品,而蚂蚁百灵团队在十天内连续开源Ling-1T和Ring-1T-preview两款万亿参数模型,引发行业对开源战略的深度讨论。万亿参数规模相当于人脑神经元数量,目前国内仅有Kimi K2、腾讯混元等极少数模型达到该量级,参数军备竞赛已进入深水区。
蚂蚁百灵大模型采用三条技术路线并行:基于MoE架构的Ling-Series非思考模型、具备深度推理能力的Ring-Series思考模型,以及全模态的Ming-Series。Ling-1T在编程与数学推理基准测试中表现突出,其AIME 25竞赛成绩超越GPT-5主干模型,支持128K长文本处理且激活参数量控制在50B/Token。这种性能源于二十万亿Token的高质量语料训练,结合原创的LPO策略优化算法和三维奖励机制,使模型在保持规模优势的同时实现推理效率平衡。
技术实现层面,百灵团队通过Ling Scaling Laws实现超参自动优化,并构建了从160亿到1万亿参数的完整产品矩阵。开源的Ring-1T-preview迅速登上Hugging Face文本生成榜第三位,全模态模型Ming-lite-omni更曾登顶跨模态榜单。图灵奖得主杨立昆罕见点赞,开发者实测反馈其本地部署性能接近GPT-5,验证了技术路线的有效性。
战略层面,蚂蚁将AI First与支付业务并列为核心战略,成立InclusionAI开源组织共享强化学习框架AReaL等多维技术。CEO韩歆毅明确表示要”探索智能上限”,认为基础模型研发是服务创新的根基。不同于行业常见的数据墙论调,蚂蚁与阿里、Kimi等团队仍坚持Scaling Law的有效性,通义千问团队更提出”大就是好”的扩展路径。目前全球完全开源的万亿参数模型仅蚂蚁百灵与Kimi K2两家,这种开放策略旨在构建AGI生态的正向循环,通过开发者反馈加速技术迭代。
行业观察显示,参数竞赛背后是智能上限的持续突破。尽管训练万亿模型面临巨大成本,但蚂蚁通过技术平权化降低开发门槛,其模型家族已覆盖手机端到云端的全场景需求。这种开源共建模式,或将成为推动AGI发展的关键基础设施,正如DeepSeek此前验证的技术路径。随着百灵等模型的涌现,大模型行业正从单点突破转向生态协同的新阶段。
原文和模型
【原文链接】 阅读原文 [ 2805字 | 12分钟 ]
【原文作者】 AI科技评论
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★★