标签:记忆机制

借鉴人脑「海马体-皮层」机制,红熊AI重做了一个「记忆系统」

记忆正成为AI从即时回答工具迈向个性化超级助手的关键突破点。近期,Google Research发表的《Nested Learning: The Illusion of Deep Learning Architectures...

DeepSeek 团队真是鬼才啊。

DeepSeek团队开源了3B参数的DeepSeek-OCR模型及相关论文,提出通过视觉模态压缩文本信息以解决大语言模型的长上下文挑战。传统Transformer架构在处理超长文本...

南洋理工、北大、上海AI实验室开源长记忆世界模型

为了解决世界模型在长期一致性模拟中的挑战,南洋理工大学、北京大学王选计算机技术研究所和上海人工智能实验室的研究人员联合开发并开源了长记忆世界模型WOR...

ChatGPT真能记住你的话吗?DeepMind与开源大佬揭示LLM记忆之谜

在探讨大型语言模型(LLM)的记忆能力时,Simon Willison指出,尽管LLM看似具备记忆功能,实则它们在推理时并不能记住任何信息,本质上是无状态函数。用户感...

谷歌推出TransformerFAM架构,以更低的消耗处理长序列文本

在人工智能领域,Transformer架构对大型模型产生了深远影响,被广泛应用于ChatGPT、Sora、Stable Diffusion等知名模型。然而,它在处理超长文档时,注意力复...

LangChain作者谈Agent AI 智能体的未来

Harrison Chase,LangChain创始人,在红杉资本的AI Ascent活动上发表了关于AI智能体未来发展的演讲。他强调了智能体发展的三大关键领域:规划、用户体验和记...