标签:大模型

创新Transformer!面壁基于稀疏-线性混合架构SALA训练9B模型,端侧跑通百万上下文

面壁智能发布了行业首个大规模训练的稀疏-线性注意力混合架构SALA及其文本模型MiniCPM-SALA,该模型通过创新架构设计显著提升了长文本处理能力和推理效率。传...

9B端侧开源模型跑通百万上下文,面壁全新稀疏-线性混合注意力架构SALA立功了!

Claude Opus 4.6的发布标志着大模型进入百万级上下文时代,该模型展现出跨文档法律分析和多轮Agent规划等能力。面壁智能随后推出创新的线性与稀疏混合注意力...

千问大模型联合淘宝「悬赏」:用更好的模型,解决电商的经营难题

AI技术正深刻重塑电商行业的运营模式与竞争格局。自2023年大模型元年以来,电商领域已成为AI落地的重要试验场,从图像生成到智能客服,技术工具已显著提升行...

AI for Health:从「实验室Demo」到「国民级健康伙伴」的范式跃迁 | GAIR Live 024期预告

生成式AI在医疗健康领域的应用正经历从辅助工具向基础设施的深刻转型。医疗大模型不再局限于医学影像诊断等单一功能,而是进化为兼具全科常识与专科深度的“数...

华为发布业界首个扩散语言模型Agent,部分场景提速8倍!

大模型通往现实世界的“最后三公里”中,Agent已成为最具代表性的技术路径。当前行业共识已从单纯追求“答对问题”转向更复杂的评估维度:能否以最短路径、最少交...

逆天!Mata用13个参数26字节让模型正确率从76%飙升至91%

Meta FAIR等机构研究人员开发出一种名为TinyLoRA的极致微调技术,仅需调整13个参数(26字节)即可显著提升大语言模型的数学推理能力。该方法配合强化学习框架...

2026开年关键词:Self-Distillation,大模型真正走向「持续学习」

2026年初,大模型领域的研究焦点集中在自蒸馏(Self-Distillation)技术上,这一方法被视为解决持续学习瓶颈的关键突破。传统监督微调(SFT)在模型吸收新知...

清华刘知远团队论文:最小化结构改动,短文本到长文本丝滑升级 | ICLR 2026

InfLLM-V2通过最小结构扰动实现大模型从短上下文到长上下文的平滑升级。随着大语言模型应用场景的复杂化,传统4k或8k序列长度已无法满足长文档理解、跨轮对话...

9B 模型“平替”GPT-4o ?!面壁赌对OpenClaw端侧AI,内部上演一人月产65万行代码的效率核爆

面壁智能在2023年百模大战中转向端侧大模型赛道,这一战略决策起初备受质疑,但随着苹果入局才验证了其前瞻性。三年后,公司通过发布MiniCPM-o 4.5全模态旗舰...

前OpenAI科学家&GPT之父:预训练精准数据过滤,极低成本削弱大模型危险能力数千倍

Claude价值观塑造者Neil Rathi与前OpenAI科学家Alec Radford共同发表的研究提出了一种革命性的AI安全方法。该方法主张在预训练阶段通过Token级数据过滤精准切...
1 2 3 74