中国大模型要用Infra“降本增效”|钛媒体AGI

中国大模型要用Infra“降本增效”|钛媒体AGI

 

文章摘要


【关 键 词】 AI算力AI基础设施数据中心算力成本技术创新

在全球AI算力需求激增的背景下,中国的AI Infra行业正迅速崛起,成为AI大模型产业的关键一环。AI Infra,即AI基础设施,扮演着算力与应用之间的桥梁角色,提供软件系统、数据存储处理和网络设施等技术,解决高端AI算力限制下的模型训练和算力解耦等问题。面对美国对华高端AI算力的限制,AI Infra行业的发展显得尤为重要。

AI Infra产业正处于高速增长的早期阶段,预计未来3-5年内将保持超过30%的增长。随着AI算力需求的增长,全球数据中心投资有望达到每年2500亿美元。到2027年,全球AI市场规模预计将飙升至近1万亿美元,AI硬件和服务市场年增长率达40%-55%。在此背景下,AI Infra已成为热门赛道,吸引了阿里、百度、字节等公司的投入,以及多家初创公司如硅基流动和无问芯穹的融资。

AI算力的发展与芯片、基础设施、数据三大要素紧密相关。随着AI大模型数据量规模的增加,算力需求日益旺盛,但AI芯片成本高居不下。在此背景下,提升算力利用率成为降低成本、提升大模型性能的关键。AI Infra的存在意义在于,它能够减少算力资源闲置现象,实现模型发展的“提速降本”。

中国的AI算力面临获取成本高昂和“东数西算”导致的问题,提升算力利用率成为关键。AI Infra通过解耦适配各类模型与芯片,减少资源闲置,降低算力成本。AI Infra的商业化潜力巨大,它不仅降低了应用开发的门槛,还降低了大规模部署时的使用成本。

在全球范围内,英伟达是唯一能够完整提供AI算力服务的公司,其A100、H100 GPU处理器和CUDA软件提供了全功能的AI大模型算力推理、训练服务。国内AI Infra技术和商业化规模远低于英伟达,但初创公司如无问芯穹通过异构混训技术,实现了不同芯片之间的高效组合训练,提升了算力使用效率。

面对美国对华AI算力的限制,中国AI算力的发展需要体系结构的变革。跨数据算力体系将支撑未来基础设施的训练,扩张算力供给、提高并行计算创新能力。AI Infra行业的发展不仅需要技术积累,还需要市场需求、技术壁垒和行业盈利方案。随着AI技术的不断进步,AI Infra行业将继续在全球AI算力竞争中扮演重要角色。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 5127字 | 21分钟 ]
【原文作者】 钛媒体AGI
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...