标签:性能优化

OpenAI绝地反击!Codex大脑首曝,8亿用户极限架构硬刚Claude

数据库架构方面,OpenAI披露了仅用1个PostgreSQL主节点支撑8亿用户的方案。关键技术包括PgBouncer连接池代理、缓存锁定机制和跨地域级联复制,实现了读写分离...

大模型Infra新突破!腾讯混元开源LLM推理算子库,推理吞吐提升30%

腾讯混元AI Infra团队开源了生产级高性能LLM推理核心算子库HPC-Ops,该库通过底层架构创新和指令级优化,显著提升了大模型推理效率。在真实场景测试中,混元...

刚刚,Anthropic内部考题开源!年薪百万工程师,被AI秒了

Claude Opus 4.5的突破性表现直接颠覆了Anthropic的技术招聘体系,这家AI公司被迫公开其曾经用于筛选顶级工程师的机密试题。这个被称为'史上最强模型'的版本...

极简主义的胜利:清华团队用最简单的强化学习配方刷新1.5B模型纪录

清华大学、伊利诺伊大学和上海AI实验室的研究团队提出了一种名为JustRL的全新架构,该架构通过单阶段训练和固定超参数,在DeepSeek-R1-Distill-Qwen-1.5B与Ne...

圣诞写代码,AI谁最强?M2.1、GLM-4.7、K2正面硬刚

2025年圣诞节前夕,MiniMax在IPO冲刺阶段高调发布新一代文本模型M2.1,并通过与智谱GLM-4.7、月之暗面Kimi K2的实测对比展现技术实力。 测试设计三个编程任务...

推理快30%,性能超过千亿参数模型,15B模型Apriel-1.6重新定义端侧推理

ServiceNow人工智能团队最新发布的Apriel-1.6-15b-Thinker模型,以150亿参数的轻量级体量,在多模态推理能力上实现了显著突破。该模型不仅击败了体量大其十倍...

基于 SGlang RBG + Mooncake 打造生产级云原生大模型推理平台

大语言模型(LLM)推理服务正迅速成为企业级应用的核心基础设施,其生产级落地需平衡性能、稳定性与成本。当前架构正从单体模式向分布式演进,主流路径包括Pr...

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

在Agentic AI时代,多智能体系统(MAS)的发展使得AI从独立运作转向协同合作。传统MAS依赖自然语言进行智能体间的交流,虽然可解释但效率低下且信息易丢失。...

月之暗面公开强化学习训练加速方法:训练速度暴涨97%,长尾延迟狂降93%

月之暗面联合清华大学提出的全新加速引擎Seer,通过创新技术显著提升大语言模型(LLM)的强化学习训练效率。该系统针对传统RL训练中生成阶段(rollout phase...

字节刚发布 Coding 模型,彻底摆脱 Claude

字节跳动正式发布了专为Agentic Coding任务优化的代码模型Doubao-Seed-Code,标志着其正式进入编程模型领域。该模型具备多项显著特点:支持多模态输入,提供2...
1 2 3 7