AI算力公司摩尔线程升级夸娥智算中心,支持万卡万亿参数通用算力|直击WAIC 2024

AI算力公司摩尔线程升级夸娥智算中心,支持万卡万亿参数通用算力|直击WAIC 2024

 

文章摘要


【关 键 词】 人工智能算力摩尔线程大模型GPU

2024年7月4日,世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2024)在上海开幕。国内AI算力方案公司摩尔线程首次参展,并发布了其AI旗舰产品夸娥(KUAE)智算集群解决方案,实现了从千卡级别到万卡规模的重大升级。摩尔线程旨在打造国内领先的、具备万P级浮点运算能力的国产通用加速计算平台,专为万亿参数级别的复杂大模型训练而设计。公司还宣布与中国移动青海公司、中国联通青海公司等多家企业签署战略合作协议,共同构建三个万卡集群项目。

摩尔线程创始人兼CEO张建中指出,当前AI大模型行业依然遵循Scaling Law法则,即为了追求更好的性能,算力需求也在不断增加。国内AI大模型热潮持续高涨,GPU数量成为衡量算力规模的基本依据。OpenAI在2020年使用约1万块英伟达GPU训练GPT-3.5模型,到了2023年,其GPT-4模型的参数量达到1.8万亿,估计使用了近3万块英伟达GPU。相比之下,国内达到万卡集群规模的模型较少,只有少数头部厂商拥有上万张卡规模的算力集群。

摩尔线程成立于2020年10月,致力于提供加速计算的基础设施和一站式解决方案。2023年12月,公司基于MTTS4000大模型智算加速卡推出了夸娥智算集群,旨在打造大模型和通用人工智能(AGI)的算力基础设施。夸娥万卡智算解决方案具备超大算力、超高稳定性能、极致优化和全能通用的生态友好平台等核心特性。其单集群规模超万卡,浮点运算能力达10Exa-Flops,GPU显存总容量达PB级,卡间互联总带宽和节点互联总带宽也达每秒PB级,实现算力、显存和带宽的系统性协同优化。

张建中强调,智算中心从千卡到万卡不仅是简单的“堆卡”,规模变大的同时,难度也呈指数级倍增。算力利用率与稳定性是衡量智算中心质量的重要指标。摩尔线程的千卡智算中心的算力利用率已达到50%,未来推动万卡集群智算中心落地时,目标是达到60%的算力利用率,同时保证99%以上的稳定性。

张建中表示,AGI一定会到来,随着各种算法进步和算力平台应用场景的建设,越来越多的大模型应用场景将得到验证。摩尔线程的目标是通过夸娥智算集群,打造规模够大、计算更通用、生态兼容好的加速计算平台,为美好世界加速。摩尔线程希望其全功能GPU能够服务产业,为人类造福,解决算力短缺的问题,并与合作伙伴携手,基于夸娥智算集群,真正做到万卡一芯、万众一芯,打造美好世界。

豆包-智能助手

原文和模型


【原文链接】 阅读原文 [ 2270字 | 10分钟 ]
【原文作者】 钛媒体AGI
【摘要模型】 gpt-4o
【摘要评分】 ★★★★★

© 版权声明
讯飞星火大模型

相关文章

星火内容运营大师

暂无评论

暂无评论...