标签:超长文本
不靠英伟达,中科院在国产 GPU 上跑通 76B 类脑大模型
大模型发展长期依赖 Transformer 和 NVIDIA GPU 体系,存在计算量和内存消耗大、硬件自主化难等问题,业界一直在寻找新方向。中科院团队提出的全新类脑大模型...
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!
这篇文章介绍了一种名为InfLLM的方法,旨在解决大型语言模型在处理超长文本时的能力瓶颈。传统大型模型在处理超长文本时往往无法记忆和理解足够长的上下文信...





