独家丨MiniMax 高级研究总监钟怡然已于半年前离职
文章摘要
【关 键 词】 人工智能、大模型、架构创新、学术研究、离职动态
钟怡然博士作为MiniMax前高级研究总监,其学术与产业界成就备受瞩目。他毕业于澳大利亚国立大学,师从李宏东教授与Richard Hartley院士,累计发表40余篇顶级会议论文,引用量近2000次,并持有美国专利。其研究涵盖计算机视觉、自然语言处理及多模态融合领域,曾获ICCV Workshop最佳论文奖和ICIP最佳学生论文奖。
职业轨迹显示其在大模型技术演进中的关键作用。2021年加入商汤科技负责大语言模型研究,次年转至上海人工智能实验室主导OpenNLPLab,专注于高效大模型架构探索。2023年底加入MiniMax后,他提出线性注意力机制在大规模语言模型中的应用构想,并主导了突破性项目MiniMax-01的研发。
MiniMax-01模型采用Lightning Attention架构,显著提升长文本处理效率。该技术通过线性或近线性注意力机制,将百万级长文本的算力需求降至传统Transformer的1/2700,有效解决长序列场景下的计算复杂度瓶颈。2025年初发布后,模型因“高效长上下文建模”的创新性被业界广泛认可,成为大模型架构优化的重要里程碑。
钟怡然在项目中实现了从理论到工程的全链路突破。作为技术负责人,他不仅完成Lightning Attention的理论设计,更推动其工程落地,为MiniMax技术体系奠定基础。不过,MiniMax官方证实其已于半年前离职,仅参与M1部分研发工作,具体去向尚未公开。
这一人事变动引发行业对高效计算技术延续性的关注。钟怡然的学术背景与产业实践深度结合,其主导的技术路线已证明通过架构创新可大幅降低大模型算力成本。未来其研究方向是否会延续高效计算路径,将成为观察大模型领域技术演进的重要窗口。
原文和模型
【原文链接】 阅读原文 [ 880字 | 4分钟 ]
【原文作者】 AI科技评论
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★☆☆☆




