标签:性能优化

极简主义的胜利:清华团队用最简单的强化学习配方刷新1.5B模型纪录

清华大学、伊利诺伊大学和上海AI实验室的研究团队提出了一种名为JustRL的全新架构,该架构通过单阶段训练和固定超参数,在DeepSeek-R1-Distill-Qwen-1.5B与Ne...

圣诞写代码,AI谁最强?M2.1、GLM-4.7、K2正面硬刚

2025年圣诞节前夕,MiniMax在IPO冲刺阶段高调发布新一代文本模型M2.1,并通过与智谱GLM-4.7、月之暗面Kimi K2的实测对比展现技术实力。 测试设计三个编程任务...

推理快30%,性能超过千亿参数模型,15B模型Apriel-1.6重新定义端侧推理

ServiceNow人工智能团队最新发布的Apriel-1.6-15b-Thinker模型,以150亿参数的轻量级体量,在多模态推理能力上实现了显著突破。该模型不仅击败了体量大其十倍...

基于 SGlang RBG + Mooncake 打造生产级云原生大模型推理平台

大语言模型(LLM)推理服务正迅速成为企业级应用的核心基础设施,其生产级落地需平衡性能、稳定性与成本。当前架构正从单体模式向分布式演进,主流路径包括Pr...

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

在Agentic AI时代,多智能体系统(MAS)的发展使得AI从独立运作转向协同合作。传统MAS依赖自然语言进行智能体间的交流,虽然可解释但效率低下且信息易丢失。...

月之暗面公开强化学习训练加速方法:训练速度暴涨97%,长尾延迟狂降93%

月之暗面联合清华大学提出的全新加速引擎Seer,通过创新技术显著提升大语言模型(LLM)的强化学习训练效率。该系统针对传统RL训练中生成阶段(rollout phase...

字节刚发布 Coding 模型,彻底摆脱 Claude

字节跳动正式发布了专为Agentic Coding任务优化的代码模型Doubao-Seed-Code,标志着其正式进入编程模型领域。该模型具备多项显著特点:支持多模态输入,提供2...

4倍速吊打Cursor新模型!英伟达数千GB200堆出的SWE-1.5,圆了Devin的梦!实测被曝性能“滑铁卢”?

Cognition公司近日推出高速AI编码模型SWE-1.5,该模型专为软件工程任务设计,现已在Windsurf代码编辑器中开放使用。通过与推理服务提供商Cerebras合作,SWE-1...

开源大模型SOTA又刷新!中国MiniMax M2全球排名第五,开源榜一

MiniMax作为中国AI独角兽企业,近期发布了专为智能体和代码任务设计的新一代模型M2,在开源领域刷新了多项性能纪录。M2以Claude Sonnet 8%的价格实现了近两倍...

Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law

在大型语言模型(LLM)领域,强化学习(RL)的算力扩展正成为关键研究范式,但其扩展规律尚未明确。Meta等机构的研究者通过40万GPU小时的实验,提出了可预测R...
1 2 3 7