标签:大语言模型

视觉生成的另一条路:Infinity 自回归架构的原理与实践

以ChatGPT、DeepSeek为代表的大语言模型取得了巨大成功,但在视觉生成领域,扩散模型仍是主流方法。视觉自回归方法因其更好的scaling特性和统一理解与生成任...

北大 & 作业帮团队提出 Text-to-SQL 新框架 Interactive-T2S,攻克宽表处理与低资源对齐难题

研究团队提出了一种名为Interactive-T2S的创新框架,旨在解决大语言模型(LLMs)在Text-to-SQL任务中的核心挑战。该框架将LLM视为一个能够与数据库进行多轮交...

西湖大学打造了一个AI科学家,突破人类SOTA,还能自己发论文

西湖大学开发的AI系统DeepScientist在两周内完成了人类需耗时三年的科研工作量,自主生成5000多个科学想法并验证1100个,最终在三个前沿AI任务上刷新了人类创...

征稿启事 | AAAI 2026“大语言模型中的深度逻辑推理”联合会议

AAAI 2026联合会议聚焦大语言模型中的深度逻辑推理问题。作为人工智能领域的顶级学术会议,第40届AAAI大会将于2026年1月在新加坡举行,其中为期两天的联合会...

大语言模型的新征程—— ACL 2025顶会见闻前沿论坛实录|GAIR Live

2025 年 ACL 年会中,大语言模型持续主导 NLP 领域,投稿量破 8000,中国作者占比达 51%。雷峰网等邀请三位学者就大模型多方面展开深度对话,探讨 NLP 未来趋...

小扎「梦之队」首批论文上线!LLM自举进化,单步性能狂飙22%

Meta超级实验室「Meta Superintelligence Labs,MSL」的三位成员上传ArXiv论文,探索利用强化学习(RL)高效微调大语言模型(LLM),使LLM在推理时实现迭代自...

扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍

扎克伯格的投资似乎初见成效,Meta Superintelligence Labs 联合提出 REFRAG 高效解码框架,旨在解决大语言模型(LLM)处理长上下文输入时的效率瓶颈。在当前...

科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生

大语言模型的发展迅速,后训练的强化学习算法不断演进。从 PPO 到 GRPO 再到后续改进算法,都在不断提升模型性能与稳定性。后训练与强化学习的重要性:大语言...

奖励模型也能Scaling!上海AI Lab突破强化学习短板,提出策略判别学习新范式

强化学习已成为推动人工智能向通用人工智能(AGI)发展的关键技术节点,但奖励模型的设计与训练一直是制约模型能力提升的瓶颈。当前,大语言模型通过Next Tok...

搜索领域的下一个重大转变:从产品到基础设施

随着AI技术的广泛应用,搜索功能正在经历一场根本性的转变,从人类直接使用的产品演变为支撑AI运转的数字基础设施。搜索将成为AI时代的信息供给系统,为数百...
1 2 3 11