开发者狂喜:Thinking Machines发布首款产品Tinker,后训练麻烦全给包了

开发者狂喜:Thinking Machines发布首款产品Tinker,后训练麻烦全给包了

 

文章摘要


【关 键 词】 大模型微调工具API开源库开发者

OpenAI前CTO Mira Murati创立的Thinking Machines公司推出了首款产品Tinker,这是一个旨在简化大模型微调过程的API工具。该工具允许开发者和研究人员专注于训练数据和算法,而将基础设施相关的复杂问题如调度、调优、资源管理等交由Tinker处理。Tinker支持包括Qwen-235B-A22B在内的多种前沿模型,并采用LoRA技术以降低成本,实现计算资源的共享。

Tinker提供了底层原语如forward_backward和sample,支持多种后训练方法。为帮助开发者更好地使用这些功能,Thinking Machines还发布了开源库Tinker Cookbook,其中包含现代后训练方法的实现示例。伊利诺伊大学香槟分校的Search-R1工具也被收录其中,该工具实现了“边推理边搜索”的功能。

多个知名学术机构已开始使用Tinker进行实验,并取得了显著成果。普林斯顿大学的团队利用Tinker和LoRA技术,仅用20%的数据就达到了与全参数微调模型相当的性能。斯坦福大学的研究人员通过微调LLaMA 70B模型,将化学推理任务的准确率从15%提升至50%。加州大学伯克利分校和Redwood Research的团队也分别在多智能体强化学习和长上下文AI控制任务中取得了进展。

Tinker目前处于内部测试阶段,waitlist已开放申请。试用者对其抽象性和可调节性给予了高度评价,认为它既简化了分布式训练的复杂性,又保留了数据和算法的控制权。Thinking Machines表示,Tinker在起步阶段将免费使用,未来几周内将推出基于使用情况的定价模式。

AI专家Karpathy指出,微调在某些场景下比直接使用大型模型加提示更为有效。他认为微调更适合收窄模型的任务范围,尤其是在拥有大量训练样本的情况下。Murati则强调,Tinker的目标是 democratize 前沿人工智能研究的能力,缩小前沿实验室与学术界之间的差距,并扭转商业AI模型日益封闭的趋势。她希望这一工具能吸引更多聪明人参与人工智能的探索与创新。

原文和模型


【原文链接】 阅读原文 [ 1768字 | 8分钟 ]
【原文作者】 机器之心
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★☆

© 版权声明
“绘蛙”

相关文章

“讯飞星辰”

暂无评论

暂无评论...