标签:GPU
现场直击GTC|最科幻发布会,性能翻30倍的恐怖Blackwell芯片,黄仁勋宣告“新工业革命”来了
在2024年3月18日的GTC上,英伟达创始人黄仁勋被认为正式成为新的乔布斯。在这场发布会中,黄仁勋在SAP中心的舞台上展示了英伟达的最新技术成果,让现场的许多...
【盘点】国产GPU乘势而起
本文主要介绍了国内GPU领域的最新动态和发展情况。自2020年以来,GPU已经成为国内芯片领域“最吸金”的赛道之一,融资总额已超过200亿元。在这个领域中,有许多...
亚马逊AWS高管:英伟达不需要失败,其他 AI 芯片也能赢得市场|钛媒体AGI
亚马逊AWS的高管Matt Wood认为,尽管亚马逊推出了自研的AI芯片,但这并不意味着英伟达会失去市场份额。他强调,英伟达不需要失败,其他AI芯片也能在市场上取...
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI
新智元报道,Meta公布了其训练Llama 3的H100集群细节,展示了其在AI领域的强大实力。Meta计划到2024年底拥有35万个英伟达H100 GPU,并在未来将算力储备提升至...
英伟达的挑战者Groq ,在LPU上押对了什么?
英伟达的GPU芯片在市场上占据领先地位,但新兴的AI推理芯片LPU可能成为其竞争对手。LPU由Groq公司开发,能够显著提高大模型的处理速度,每秒输出500个tokens...
前谷歌科学家离职创业1年,自述训练LLM卡在算力上!买卡就像中彩票,Karpathy转赞
Yi Tay,前谷歌大脑科学家,分享了他在离职后创办初创公司并训练大模型的经历。他强调了算力稀缺和算力提供商之间的巨大差异是训练大模型的主要难题。
GPU,一统天下
本文详细回顾了图形处理单元(GPU)的发展历程,从最初仅用于加速2D图形绘制的辅助设备,到成为当今高性能计算和机器学习领域不可或缺的核心技术。文章从20世...
超越英伟达!字节跳动MegaScale如何实现大规模GPU的高效利用?
在2024年2月,字帖跳动发布了一篇关于大语言模型训练框架的论文《MegaScale: Scaling Large Language Model Training to More Than 10,000 GPUs》。MegaScale...
老黄最新专访:芯片短缺难以结束,下个Transformer已经出现
英伟达创始人黄仁勋在接受WIED专访时分享了他对公司未来的想法和预测,以及对过去问题的再思考。黄仁勋强调了英伟达在AI芯片市场的领导地位,以及他对AI技术...
字节万卡集群技术细节公开:2天搞定GPT-3训练,算力利用率超英伟达Megatron-LM
字节跳动与北京大学合作的一篇新论文揭示了AI基础设施的重要性,并介绍了字节搭建的万卡集群,该集群能在1.75天内完成GPT-3规模模型(175B)的训练。字节提出...




