标签:推理

40位数学家组成8队与o4-mini-medium比赛,6队败北

Epoch AI 最近组织了一场人机数学竞赛,邀请了40位数学家组成8支队伍,与OpenAI的o4-mini-medium模型进行对决。竞赛题目来自高难度的FrontierMath数据集,旨...

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达通过Blackwell架构在AI推理领域取得了突破性进展,单节点(8颗Blackwell GPU)的DGX B200服务器实现了Llama 4 Maverick模型每秒单用户生成1000个token...

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

a-m-team 最近发布了一篇名为“Not All Correct Answers Are Equal: Why Your Distillation Source Matters”的论文,探讨了在推理模型训练中蒸馏数据源的重要...

DeepSeek们越来越聪明,却也越来越不听话了。

近年来,随着AI推理能力的提升,模型在执行任务时被认为应该更加聪明。然而,这种聪明却带来了一个意想不到的副作用:提示词遵循能力逐渐下降,模型变得越来...

LLM又曝致命缺陷:根本不会看时钟!博士惊呆,准确率不及50%

最新研究揭示了AI在处理看似简单的任务时存在的显著认知缺陷,尤其是在读取时钟和判断日期方面。尽管AI在复杂任务如论文写作、绘画和考试中表现出色,但在这...

华为+DeepSeek,推理性能创新高!技术报告也公布出来了

华为昇腾在超大规模MoE模型推理部署领域取得了显著突破,其推理性能全面超越了英伟达的Hopper架构。这一成就主要归功于华为昇腾的“以数学补物理”策略,通过数...

LLM Inference 和 LLM Serving 视角下的 MCP

自从ChatGPT问世以来,大语言模型(LLM)相关技术对人工智能领域产生了深远影响,尤其是LLM推理(LLM Inference)和LLM服务(LLM Serving)的概念逐渐成为行...

首次披露!DeepSeek V3 发布软硬一体协同训练论文,公开「降成本」秘诀

DeepSeek团队最新发布的论文《洞察 DeepSeek-V3:规模的挑战和对AI架构硬件的思考》探讨了如何通过软硬件协同设计实现经济高效的大规模训练和推理。随着OpenA...

蚂蚁武威:下一代「推理」模型范式大猜想

长思维链作为深度思考的一种实现方式,近年来成为研究下一代基础模型推理能力的热门方向。尽管R1模型展示了强大的性能,但其高维度和高能量的特性导致系统不...

微软开源新版ph4:媲美DeepSeek-R1,参数暴降48倍

微软近期在官网开源了三个新版Phi-4小参数模型,分别是Reasoning、Min-Reasoning和Reasoning-plus。这些模型的最大亮点之一是算力消耗极低,能够在消费级硬件...
1 2 3 4 5 6 10