突发!OpenAI再失一名高管,安全主管辞职

AIGC动态1个月前发布 AIGCOPEN
168 0 0
突发!OpenAI再失一名高管,安全主管辞职

 

文章摘要


【关 键 词】 人工智能高管变动安全对齐风险担忧未来发展

人工智能领域,OpenAI的高层管理层近期出现重大变动。继首席科学家Ilya Sutskever辞职后,安全主管兼超级对齐负责人Jan Leike也在社交平台宣布离开OpenAI。这一系列的高管辞职可能预示着更多人员变动,也被视为去年Ilya试图罢免首席执行官Sam Altman的事件以失败告终的标志。

Sam Altman对Jan的离职表示了感谢,并肯定了他在OpenAI的贡献和领导力。他还预告将会发表文章,详细阐述OpenAI在产品安全方面的规划和实践。

在离职演讲中,Jan透露了他加入OpenAI的初衷:这家公司是全球最适合进行大型模型安全研究的机构。他指出OpenAI高层似乎对安全对齐的关注已减少,直到出现了无法挽回的局面,这让他觉得是时候离开了。Jan强调了构建超越人类智能的AI机器人带来的风险,并表达了对于科幻电影中机器人失控情景不应成为现实的担忧。他认为OpenAI肩负着代表人类向通用人工智能(AGI)迈进的重要责任,应更多地关注产品安全、对抗鲁棒性、超级对齐、数据保密和监控等领域。

对于两位安全领导的离职,外界提出了对OpenAI未来产品安全的担忧。有消息透露,OpenAI的离职协议可能包含要求签署不诋毁公司的承诺,否则将失去所有股权。

尽管本周OpenAI发布了多模态大模型GPT4o,但其内部的人事大变革可能会影响未来的产品发布,如GPT-5等。2023年11月,Ilya因认为Sam的产品路线过于激进而忽视安全性,发起了罢免Sam的事件,但在微软的支持下,Sam最终回归并继续掌权。

在加入OpenAI之前,Jan在谷歌DeepMind工作,负责强化学习的研究。在OpenAI,他参与了InstructGPT、ChatGPT的开发和GPT-4的安全对齐工作。Jan在大模型安全领域的贡献得到了认可,他的研究论文广受赞誉,并在2023年被《时代》周刊评为AI领域最具影响力的100位人物之一。随着他的离职,OpenAI在AGI道路上的未来发展方向备受关注

原文和模型


【原文链接】 阅读原文 [ 1170字 | 5分钟 ]
【原文作者】 AIGC开放社区
【摘要模型】 glm-4
【摘要评分】 ★★☆☆☆

© 版权声明
讯飞星火大模型

相关文章

星火内容运营大师

暂无评论

暂无评论...