端侧AI时代,存储变了:江波龙全面出击

AIGC动态2小时前发布 admin
94 0 0
端侧AI时代,存储变了:江波龙全面出击

 

文章摘要


【关 键 词】 端侧AI存储革新软硬协同性能优化国产替代

在人工智能从云端向终端大规模落地的转折期,端侧AI应用对存储系统提出全新挑战,传统存储方案难以满足其在功耗、性能与尺寸方面的差异化需求。文章指出,当前端侧AI推理场景中,模型常驻占用大量高速内存(如LPDDR5/5x),导致系统流畅度下降,同时KV Cache高频、小碎块存取模式显著加剧数据搬运功耗与发热问题。为破解上述难题,江波龙强调“深度集成的定制化存储方案”已成为端侧AI的核心诉求,其提出的三大核心需求——高性能容量、SiP系统级集成封装、定制化服务——与云端AI的GPU专业化存储服务形成本质区分。

“端侧AI同样需要深度集成的定制化存储方案,而非通用标准存储产品”,江波龙董事长蔡华波在CFM | MemoryS 2026峰会上明确指出。基于二十多年行业积淀,江波龙构建覆盖芯片设计、固件算法、材料工程等全链条能力的Foundry模式,突破传统存储单一升级瓶颈,实现从设计到交付的全链路定制化。这一模式已精准匹配AI手机、智能座舱、具身机器人等多元场景,并推动产业链协同创新。

新一代PCIe Gen5 mSSD以“小体积、高性能、多形态”为核心,延续DRAM-less架构与20×30mm超小尺寸,支持M.2多种规格;搭载联芸1802主控,顺序读写峰值分别达11GB/s与10GB/s,随机IOPS可达2200K与1800K。针对高负载下散热痛点,江波龙首创集均热器+TIM导热胶、石墨烯散热片及VC均热板的轻薄散热方案,使11GB/s性能维持时间提升至181秒,连续读取容量达1991GB,较常规方案提升近2.5倍,有效支撑AI PC KV Cache高负载场景。

SPU(存储处理单元)与iSA(存储智能体)构成“芯片硬件+智能调度”的技术闭环:SPU基于5nm制程,最大支持128TB容量,通过存内无损压缩(平均2:1)与HLC高级缓存技术节省SSD容量和DRAM成本;iSA作为智能调度引擎,可实现MoE专家卸载、KV Cache智能管理与预取算法,显著提升推理效率。江波龙与AMD联合调优锐龙AI Max+处理器,成功本地部署397B超大模型,在256K上下文场景下降低DRAM占用近40%,验证该方案具备规模化落地可行性。

HLC高级缓存技术实现AI PC与嵌入式端全场景落地,分层架构中“性能层专供AI高速缓存,存储层承担通用数据”,既保障推理流畅性,又降低DRAM需求,进而压缩硬件成本。在嵌入式端,与紫光展锐联合开发实测显示:4GB DDR搭配HLC后,App启动响应时间仅851ms,接近6GB/8GB配置水平;其14nm WM7200 UFS 2.2产品则达顺序读写1070MB/s/1000MB/s,随机IOPS突破240K/210K,领先主流产品并优化整机BOM成本。

自研SiP系统级封装技术可将SoC、存储、通信模块等高度集成于单颗封装,大幅提升终端设备空间利用率与散热效率,特别适配AI眼镜、智能手表等对轻薄性和结构紧凑性要求严苛的产品类型,进一步强化中国企业在海外制造端的技术转化优势。文章结尾指出,存储正从冰冷数据容器转向赋能物理世界智能化的核心引擎,江波龙以系列技术创新锚定端侧AI存储新赛道,助力AI真正走入千家万户,也为中国存储企业重构全球产业格局提供范式路径。

原文和模型


【原文链接】 阅读原文 [ 3542字 | 15分钟 ]
【原文作者】 半导体行业观察
【摘要模型】 qwen3-vl-flash-2026-01-22
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“讯飞星辰”

暂无评论

暂无评论...