文章摘要
【关 键 词】 人工智能、安全风险、岗位招聘、模型能力、心理健康
奥特曼近期为OpenAI公开招聘「准备工作负责人」一职,开出55.5万美元年薪加股权的丰厚条件,折算人民币约400万起步。这一罕见的高薪岗位直指AI快速发展带来的安全挑战,核心任务是构建「安全围栏」以管控模型能力增强伴随的风险。奥特曼在招聘帖中明确,该职位需「立刻下深水」,承担类似「救火队长」的职责,重点防范模型滥用和现实危害。
模型能力的突飞猛进正催生更「硬核」的风险形态。标志性变化包括AI已能自主发现计算机系统高危漏洞,这种能力若被恶意利用将引发连锁反应。同时,心理健康领域出现新问题——部分用户过度依赖AI对话导致妄想行为加剧,促使OpenAI与专业机构合作优化交互机制。此外,法律文件的幻觉生成、深度伪造技术引发的伦理争议(如Sora对历史人物视频的生成限制)等案例,凸显安全防控需覆盖技术落地的全场景。
岗位目标被设定为建立「连贯、严谨且可扩展的安全流程」,需从能力评估、威胁建模到缓解措施形成闭环。奥特曼特别强调生物领域AI应用的安全发布,以及提升自我改进系统的运行可信度,认为这是「几乎没有先例的巨大难题」。其挑战性在于,许多理论方案遭遇现实边界条件时会失效,需要动态调整防护策略。
此次招聘背后是OpenAI安全团队近年来的动荡重组。2024年5月「超级对齐」团队解散,核心成员相继离职并公开批评公司「安全文化让位于产品迭代」。7月起,AI安全负责人Aleksander Madry调岗,10月政策研究骨干Miles Brundage出走,导致原30人的AGI安全研究团队规模缩减近半。前员工指出,盈利压力下安全投入被削弱,计算资源分配向产品开发倾斜。
当前AI军备竞赛已进入关键阶段,各大厂商面临「加速」与「可控」的双重考验。OpenAI此次高调招募,既是对安全短板的紧急补位,也是向业界传递重视风险治理的信号。该职位需将抽象的安全原则转化为可执行的技术方案,在模型能力持续突破的背景下,构建既能防御已知威胁、又能应对未知风险的动态防护体系。守住安全底线,或将成为决定这场技术竞赛最终胜负的关键变量。
原文和模型
【原文链接】 阅读原文 [ 2021字 | 9分钟 ]
【原文作者】 新智元
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★★




