引入LPU的英伟达,是在补强,还是在拆自己的护城河?丨GTC观察
文章摘要
【关 键 词】 SARMA架构、Token经济、物理瓶颈、异构计算、整机柜算力
在GTC 2026落幕之际,英伟达披露与AWS的大规模芯片采购协议将于2027年前交付,其2027年万亿美元营收目标正逐步落地;更受关注的是Groq的LPU首次入驻AWS数据中心,引发业内对其推理效率与产业意义的深度讨论。本次文章结合多位半导体与AI算力领域专家观点,围绕“推理时代”展开多维度分析,核心聚焦于技术演进趋势、成本结构变迁与产业链生态重构。
第一部分聚焦芯片架构变革。文章指出,LPU采用纯SRAM架构的设计并非全新概念,阿里、Graphcore等企业此前亦有类似探索;其核心价值在于显著降低数据搬运时间,大幅提升能效比——RISC-V创始人David Patterson曾指出,小型SRAM能效是DRAM的128倍。尽管SRAM成本一度为DRAM的6倍而被主流取代,但当前算力需求下“能耗”替代“成本”成为核心衡量指标,“每焦耳产生多少Token”已成新标准。刘昊飞强调,此举标志着行业正从“经济瓶颈”阶段迈入“物理瓶颈”阶段,能源限制正在成为制约算力发展的刚性边界。同时,LPU引入并非单纯为降本,而是推动“Token分层定价”逻辑落地——即高溢价服务对应极致性能,这使TAM市场空间暴增数十倍。然而徐凌杰提醒,LPU虽具颠覆性,却未必是唯一解,当前主流仍为异构融合方案,真正挑战在于提升基础单元(计算、存储、连接)效率并实现降本。
第二部分剖析系统架构演进。随着MoE模型普及及模型参数持续膨胀,单卡受限导致需百张以上GPU协同工作,超节点设计成为必然选择;Rubin平台和NVL72机架所代表的“整机柜算力”战略,既为应对算力密集场景提供解决方案,也进一步强化英伟达在客户心智中的地位。面对超节点构建的技术壁垒,罗彤指出AMDHelios产品仍沿用两年前置方案,反映出产业链加速追赶的现实,也印证技术迭代之快。在此背景下,英伟达70%毛利率能否延续引发广泛讨论:罗彤认为其核心竞争力不仅源于技术领先,更在于将技术转化为长期盈利的能力,例如通过与台积电、Synopsys协同,构建“智能反哺智能”的飞轮效应;徐凌杰则强调,英伟达采取“链主策略”,只把控高增长环节,低毛利部分交由供应链分摊风险,这是其护城河的重要组成部分。他亦警示国产厂商不应盲目追求高毛利模式,应在芯片互联与软硬协同上寻求突破,并以性价比撬动生态建设。
第三部分探讨软件与生态竞争格局。英伟达推出的NemoClaw企业版栈及Nemotron开源模型,在PinchBench基准测试中任务成功率逼近Claude Opus 4.6、GPT-5.4,显示出其在软件生态构建上的深度积累;该举措旨在解决GPU使用门槛高的问题,正如罗彤所喻:“GPU如棍子,需掌握技巧方能释放效能”,而NVIDIA自身先跑通典型应用,方具备引导客户能力。徐凌杰援引谷歌收购安卓案例,阐释开源本质在于扩大安装基础、带动硬件销售——英伟达不图短期直接赚钱,而是借助软件建立生态系统黏性。对此国内厂商面临现实困境:软件团队规模偏小、客户服务支撑不足,难以支撑全栈服务能力。为此专家建议应推动资源整合,鼓励形成少数平台型公司,集中资源构建统一生态。徐凌杰乐观指出,我国大模型在开源层面已接近国际水平,且超节点所需散热、互联等工程化优势可支持实现约三分之一的成本量产,为国产突围提供了差异化路径。
整体而言,本文揭示出人工智能发展正经历三大关键转折:Token经济重塑成本逻辑、物理极限倒逼能效升级、软硬一体化成为新竞争焦点;未来三到五年,国产算力产业链将在强链主牵引、细分赛道深耕与工程能力跃升中寻找破局点,而如何平衡技术创新与商业化闭环,则成为决定产业胜负的关键变量。
原文和模型
【原文链接】 阅读原文 [ 5553字 | 23分钟 ]
【原文作者】 雷峰网
【摘要模型】 qwen3-vl-flash-2026-01-22
【摘要评分】 ★★★★★



