文章摘要
【关 键 词】 AI发展、范式转换、多模态推理、强化学习、家用机器人
我们正在经历一次静悄悄但本质性的AI范式转换,其意义不亚于Transformer本身的诞生。过去一年,关于AI发展的观点呈现两极分化:一方面存在”模型到顶论”,另一方面却频繁出现GPT-5.1、Gemini 3等重大版本更新。Transformer作者Łukasz Kaiser从内部视角揭示了AI发展的真实轨迹:AI能力增长遵循平滑的指数曲线,类似持续生效的摩尔定律,当前感知的”放缓”实质是技术范式从预训练向推理模型的根本转变。
预训练技术已进入S曲线的平稳期,而推理模型仍处于快速发展初期。这种转变使得模型从单纯记忆答案转向具备思维链能力,能够主动使用工具进行推理分析。以Codex为例,编程工作流程已彻底转变为”AI处理+人工微调”模式。支撑这一进步的核心是强化学习技术,它通过奖励机制训练模型自我纠错,并将在多模态推理等更广泛领域发挥作用。虽然Gemini已实现初步的图像生成推理,但多模态推理仍被视为下一个重大突破点。
关于版本迭代,GPT-5.1虽看似小更新,实则是基于用户体验导向的重大稳定性改进。OpenAI通过并行开发策略(强化学习、预训练等多个项目同步推进)结合蒸馏技术,显著缩短了迭代周期。不过模型仍存在明显短板,在处理基础数理逻辑问题时表现甚至不如5岁儿童,这暴露出多模态能力和经验迁移方面的不足。
作为Transformer八位作者中唯一从未线下会面的成员,Łukasz揭示了这一架构诞生的偶然性:当时多数研究者坚持专用模型路线,而他们突破性地验证了统一模型处理多任务的可行性。从谷歌转投OpenAI的决策,部分源于对灵活组织架构的偏好,OpenAI采用项目自发组队模式,但GPU资源竞争始终存在。
展望未来,AI将重塑而非取代人类工作。高风险场景仍需要人类专家参与决策,如重要文本翻译仍需人工审核。最具可见性的变革可能来自家用机器人领域,随着多模态能力和物理世界推理技术的突破,结合硅谷正在快速成熟的硬件基础,具身智能将带来比ChatGPT更直观的社会影响。这一进程取决于通用强化学习与多模态推理的协同发展,目前仍处于爆发前夜。
原文和模型
【原文链接】 阅读原文 [ 2812字 | 12分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★★




