文章摘要
【关 键 词】 AI模型、代码生成、量化投资、开源项目、技术突破
IQuest-Coder-V1系列模型在最新SWE-Bench Verified榜单中以81.4%的成绩超越Claude Opus-4.5和GPT-5.2等千亿级参数模型,引发国内外科技界广泛关注。该模型由量化私募机构九坤投资旗下团队开发,已在GitHub和抱抱脸平台开源,其40B参数版本采用独特的Loop架构设计,在保持计算成本相近的前提下显著提升吞吐量,通过共享参数的循环Transformer设计实现参数高效利用,使40B模型达到数百亿参数MoE模型的性能水平。
架构设计上突出工程友好特性,采用分组查询注意力(GQA)降低显存占用,原生支持128K上下文长度,能处理完整代码仓库级别的复杂依赖关系。76800个token的大词表设计更贴合实际代码场景,而循环变体架构通过跨迭代参数共享实现性能跃升。官方演示案例显示,模型能高质量完成从太阳系模拟到像素沙盒游戏等多样化编程任务,生成的代码具备交互式物理效果、实时渲染和复杂游戏逻辑等专业级实现。
训练策略采用创新的”代码流多阶段训练”方法,通过(R_old, Patch, R_new)三元组数据捕捉软件演化过程,使模型学习到代码修改前后的逻辑关联。训练流程分预训练、中期强化和后期分流三个阶段,特别选取项目生命周期40%-80%阶段的稳定代码作为训练素材,将软件工程经验显式编码进模型。这种动态学习方式使其在SWE-Bench Verified、BigCodeBench等八大代码相关评测中全面领先。
九坤投资作为模型背后的量化私募机构,拥有强大的技术团队配置,投研团队60%以上为博士学历,核心创始人王琛师从图灵奖得主姚期智。公司已建立专门的人工智能实验室,此前推出的URM通用推理模型在ARC-AGI评测中表现优异。模型核心开发团队部分成员具有Qwen等大模型开发背景,论文作者阵容与多篇代码基础模型领域的重要研究高度重合。
该模型支持单卡H20推理部署,Int4量化版本可运行于消费级3090/4090显卡,为开发者提供了高性能的本地化部署方案。尽管存在对基准测试有效性的讨论,但其在真实编程任务中展现的代码生成质量,特别是处理复杂工程上下文的能力,标志着中国在代码大模型领域取得的重要突破。模型的开源策略将进一步推动AI辅助编程技术的发展与应用普及。
原文和模型
【原文链接】 阅读原文 [ 2833字 | 12分钟 ]
【原文作者】 量子位
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★★




