标签:长上下文
Gemini 3.0发布:从“工具辅助”到“主动代理”,谷歌做了这几点
谷歌发布最新AI模型Gemini 3,标志着人工智能从“工具辅助”向“主动代理”的跨越式演进。这款被称为“全能型选手”的模型在多个核心基准测试中对标甚至超越GPT-5.1...
刚刚,豆包编程模型来了,我们用四个关卡考了考它!
AI编程助手正经历从代码补全工具向具备自主规划能力的Agentic Coder演进。2025年,行业分化为IDE增强和任务委托两条技术路线,前者以GitHub Copilot为代表提...
刚刚,Kimi开源新架构,开始押注线性注意力
在智能体时代,推理的计算需求成为核心瓶颈,标准注意力机制的低效问题日益凸显。线性注意力虽能降低计算复杂度,但受限于表达能力,在语言建模中表现历来不...
DeepSeek新模型用OCR解决超长文本:这世界还能被更高效压缩?
DeepSeek近期发布的《DeepSeek-OCR》技术方案突破了传统OCR工具的局限,其核心价值在于通过视觉压缩解决大模型长上下文处理的瓶颈问题。当前主流大模型受限于...
扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍
扎克伯格的投资似乎初见成效,Meta Superintelligence Labs 联合提出 REFRAG 高效解码框架,旨在解决大语言模型(LLM)处理长上下文输入时的效率瓶颈。在当前...
Qwen3小升级即SOTA,开源大模型王座快变中国内部赛了
开源大模型领域近期迎来了显著的技术进展,尤其是中国市场的竞争愈发激烈。Kimi K2作为一款备受关注的模型,其1T的总参数量在短时间内被Qwen3的新版本超越。Q...
MiniMax 技术闭门会分享:长上下文是 Agent 的 Game Changer
MiniMax在7月10日举办的M1技术研讨会汇集了全球顶尖的研究者和业界嘉宾,深入探讨了模型架构创新、RL训练、长上下文应用等前沿话题。RL能否赋予模型新能力?...
最强3B「小钢炮」,代码数据全公开!推理随意开关,128k超长上下文
Hugging Face最新推出的30亿参数模型SmolLM3,以其全面开源和卓越性能成为小模型领域的标杆。该模型支持128k长上下文处理,并在多语言任务中展现出色表现,同...
Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?
普林斯顿大学陈丹琦团队提出统一框架解决长上下文语言模型中的KV缓存内存瓶颈问题。随着'长思维链'等技术的兴起,模型需要处理数万token的输入,导致基于Tran...
OpenAI 推出 GPT-4.1,撞期智谱 Z.ai
OpenAI近日推出了GPT-4.1系列模型,包括GPT-4.1、GPT-4.1 mini和GPT-4.1 nano,这些模型在多个方面超越了之前的GPT-4o和GPT-4o mini。GPT-4.1在编码、指令跟...
1
2





