标签:混合架构

谷歌Gemma 4全系开源:3.8亿激活超越20倍体量模型,手机秒变AI工作站

谷歌正式发布了Gemma 4全系列开源模型,致力于将云端的顶尖AI能力封装至智能手机与轻薄笔记本等移动设备中。新系列包含四个规格的参数模型,其中仅需激活3.8...

被低估的先进封装巨头

为有效解决这一难题,行业内正在加速推进一种全新的解决方案,即采用异构集成的方式。通过利用 Intel Foveros 系列等成熟技术,系统能够将硅片分割成多个功能...

联想重新定义“龙虾”

联想推出的天禧 AI 凭借多年积累展现出系统级选手独特优势其战略围绕混合式 AI 展开兼顾公共大模型知识与私域隐私边界保护。该智能体配备三级自主执行能力自...

英伟达龙虾模型开源,12B激活登上成功率全球第四

英伟达推出名为Nemotron 3 Super的开源大语言模型,总参数1200亿、激活参数仅120亿,专为解决多智能体系统中的“上下文爆炸”与“思考税”问题而设计。该模型在专...

OpenClaw带火AI记忆,DeepMind用混合记忆把3D重建拉到近2万帧

谷歌DeepMind与加州大学伯克利分校合作提出的LoGeR(Long-Context Geometric Reconstruction)旨在解决前馈式3D重建模型在处理超长视频序列时的两大核心瓶颈...

创新Transformer!面壁基于稀疏-线性混合架构SALA训练9B模型,端侧跑通百万上下文

面壁智能发布了行业首个大规模训练的稀疏-线性注意力混合架构SALA及其文本模型MiniCPM-SALA,该模型通过创新架构设计显著提升了长文本处理能力和推理效率。传...

看完黄仁勋、苏姿丰和陈立武同台,后劲还挺大

在拉斯维加斯Sphere场馆举办的Tech World 2026活动上,联想作为首个在CES期间独立举办发布会的中国企业,展示了其在AI领域的战略布局与技术创新。这场活动不...

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

2026年标志着大型语言模型(LLM)发展进入以效率优化和混合架构为主导的新阶段。尽管Transformer架构仍是当前AI生态系统的基石,但行业焦点已从单纯扩大参数...

性能不减,吞吐量提升6.4倍!英伟达用混合算子和架构定义小模型新标准

NVIDIA最新研究颠覆了传统小型语言模型的设计理念,参数数量减少不再直接等同于速度提升,关键在于模型架构与硬件特性的深度匹配。研究团队通过Nemotron-Flas...

刚刚,Kimi开源新架构,开始押注线性注意力

在智能体时代,推理的计算需求成为核心瓶颈,标准注意力机制的低效问题日益凸显。线性注意力虽能降低计算复杂度,但受限于表达能力,在语言建模中表现历来不...
1 2