五年,终于等来Transformers v5
文章摘要
【关 键 词】 Transformers、版本更新、开源库、AI基础设施、PyTorch
Hugging Face发布了Transformers v5的首个候选版本v5.0.0rc0,标志着这一全球最流行的AI基础设施库正式跨越了从v4到v5长达五年的技术周期。自2020年11月v4版本发布以来,Transformers的日下载量已从2万次激增至超过300万次,总安装量突破12亿次。该库支持的模型架构从最初的40个扩展至超过400个,涵盖文本、视觉、音频及多模态领域,社区贡献的模型权重超过75万个。
v5版本将PyTorch确立为唯一核心后端,并聚焦于四大维度的进化:极致的简洁性、从微调迈向预训练、与高性能推理引擎的互操作性,以及将量化提升为核心功能。在简洁性方面,团队通过模块化设计显著改善了建模文件,使代码只保留模型前向/反向传播所需的核心部分。此外,v5简化了tokenization和processing文件,未来将只关注tokenizers后端,并移除Fast和Slow tokenizer的概念。
模块化方法是v5的重要创新之一,例如引入AttentionInterface为注意力机制提供集中抽象层。Hugging Face还构建了模型转换工具,通过机器学习识别新模型与现有架构的相似性,并计划自动化模型转换流程以减少手动工作。在训练方面,v5加大了对大规模预训练的支持,重新设计了模型初始化方式,并加入对前向与反向传播优化算子的支持。
推理是v5优化的重点方向之一,新增了连续批处理和paged attention机制,以及兼容OpenAI API的transformers serve服务系统。Hugging Face强调其目标并非取代专业推理引擎,而是与vLLM、SGLang等实现兼容。在生产环境部署方面,团队与ONNXRuntime、llama.cpp等紧密合作,确保模型互操作性。
量化成为v5的核心能力之一,确保与主要功能完全兼容。许多前沿模型如今以低精度格式发布,v5为此提供了可靠的量化框架。总体而言,Transformers v5通过持续创新和生态整合,进一步巩固了其作为AI基础设施领导者的地位。
原文和模型
【原文链接】 阅读原文 [ 1898字 | 8分钟 ]
【原文作者】 机器之心
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★☆




