Cursor 套壳、Cloudflare 上架、老黄邀请,中国模型杀进了硅谷的 AI 供应链
文章摘要
【关 键 词】 Kimi模型、硅谷接纳、开源生态、Agent基建、成本优势
Cursor 发布 Composer 2 模型,宣称源自首次“持续预训练”,但技术社区很快发现其底层基座实为 Kimi K2.5 开源模型,而官方博客未作披露。事件发酵后,Cursor 联合创始人承认疏忽并承诺后续改正;双方确认为授权合作。该模型定价低于 K2.5 官方 API,反映出显著的成本优势——正是因采用开源底座,Cursor 实现价格“一折”策略。
Cursor 事件仅是更广泛趋势的开端:Cloudflare 将 K2.5 上架 Workers AI 平台,内部实测成本下降 77%;黄仁勋在 GTC 2026 邀请 Kimi 创始人杨植麟作为唯一中国独立大模型公司代表演讲,并多次在 CES 和 GTC 使用 K2.5 展示芯片性能与推理能力;马斯克一周内两次公开点赞 Kimi 及其相关论文,包括关注 Attention Residuals 论文引发的全球传播;Chamath Palihapitiya 在播客中提出“K2.5 时刻”概念,称“把下一代系统和开源结合,AI 成本能砍掉 90%”。
该现象背后有明确的技术路径与商业逻辑支撑。K2.5 基于 MoE 架构设计,总参数达 1T,但每次推理仅激活约 32B 参数,实现高性能与低部署成本平衡;在编程场景 SWE-Bench Verified 达 76.8%,LiveCodeBench v6 达 85.0%,表现处于行业第一梯队;团队针对 Transformer 结构瓶颈,创新性提出 Attention Residuals 机制,在 GPQA-Diamond 科学推理上提升 7.5 个百分点;这种“改底层而非堆算力”的路线成为核心竞争力,使 Cloudflare 等企业得以在同等性能下实现大幅降本。
开源模式已突破单纯性能比较,切入三大关键生态位:一是大规模部署场景下极强的性价比优势(如 Cloudflare 安全审查 agent 年费节省超百万美元);二是高度可定制性(Cursor 基于权重微调出专属编程模型,闭源体系难以实现);三是透明与可信性(支持本地部署、行为审计,契合政务、金融等安全敏感领域刚需)。K2.5 在 HuggingFace 下载量超 356 万次,GitHub 集成项目逾 127 个,Ollama 已纳入支持,显示出强大社区渗透力。
Kimi 不再止步于模型提供者,正加速转向 Agent 基础设施服务商:推出 Agent Swarm 支持调度百级子代理并行执行任务,提速 3 至 4.5 倍;Kimi CLI 提供终端编程助手功能,并计划推 GUI 版本扩大用户覆盖;春节上线的 KimiClaw 实现一键部署式 Openclaw Agent 环境;kimi.com 近三个月访问量突破 1.2 亿次,表明其已进入消费级应用阶段。
从 1 月 29 日开源发布到 3 月 20 日事件引爆,仅历时不到两个月,Kimi K2.5 即成功嵌入硅谷主流工具链——这是技术认可、工程验证与市场选择共同作用的结果。当前并非闭源模型能力全面溃败,而是开源模型精准找到了闭源产品难以覆盖的关键生产场景:规模化应用、深度适配与合规控制,从而在这些赛道建立起不可替代的核心竞争力。
原文和模型
【原文链接】 阅读原文 [ 3971字 | 16分钟 ]
【原文作者】 Founder Park
【摘要模型】 qwen3-vl-flash-2026-01-22
【摘要评分】 ★★★★★



