标签:推理

Day0迁移、一键部署,华为开源的昇思MindSpore成为大模型开发的“万能钥匙”

在AI大模型时代,行业逐渐形成一个共识:没有一个大模型可以一统天下。面对众多且不断更新的主流大模型和AI技术,开发者们面临的主要挑战是如何在一个统一的...

「Next-Token」范式改变!刚刚,强化学习预训练来了

在人工智能领域,强化学习(RL)长期以来被视为提升模型能力的辅助工具,而非核心方法。然而,近年来,强化学习在提升大语言模型(LLMs)能力方面的作用逐渐...

AI疯狂进化6个月,一张天梯图全浓缩!30+模型混战,大神演讲爆火

在旧金山AI工程师世博会上,Simon Willison通过自创的「骑自行车的鹈鹕」图像生成测试,回顾了过去六个月大语言模型(LLM)的飞速发展。他亲测了30多款AI模型...

Mamba 架构实现推理性能超 Gemma3-27B!推理模型开始迈入「无注意力」时代

PromptCoT-Mamba-7B是首个实现解码显存常量、计算复杂度线性、长上下文稳定扩展且具备强推理能力的模型,标志着推理大模型首次完全不依赖注意力机制而运作。...

无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

新加坡国立大学、清华大学和Salesforce AI Research的研究者提出了一种名为“元能力对齐”的训练框架,旨在提升大型推理模型在数学、编程和科学问题上的基本推...

SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

随着OpenAI的o1/o3和Deepseek-R1等具备强大推理能力的大语言模型相继问世,学界普遍采用「监督微调 + 强化学习」的两阶段训练范式。这种范式在纯文本领域取得...

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

研究团队提出两种专为推理“量身定制”的注意力机制——Grouped-Tied Attention(GTA)和Grouped Latent Attention(GLA),旨在优化大语言模型的推理效率和硬件...

40位数学家组成8队与o4-mini-medium比赛,6队败北

Epoch AI 最近组织了一场人机数学竞赛,邀请了40位数学家组成8支队伍,与OpenAI的o4-mini-medium模型进行对决。竞赛题目来自高难度的FrontierMath数据集,旨...

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达通过Blackwell架构在AI推理领域取得了突破性进展,单节点(8颗Blackwell GPU)的DGX B200服务器实现了Llama 4 Maverick模型每秒单用户生成1000个token...

纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源

a-m-team 最近发布了一篇名为“Not All Correct Answers Are Equal: Why Your Distillation Source Matters”的论文,探讨了在推理模型训练中蒸馏数据源的重要...
1 2 3 8