文章摘要
【关 键 词】 AI安全、内部争议、监管漏洞、员工权益、保密协议
OpenAI近期面临了一系列内部问题和争议。前员工William Saunders在一场人工智能监管听证会上揭露了公司运营体系的漏洞,这些漏洞可能允许工程师绕过访问控制,窃取包括GPT-4在内的先进AI系统。此外,去年年初,一名黑客入侵了OpenAI的内部消息系统,窃取了AI技术设计的详细信息,但公司并未对外公开此事件。
Saunders对OpenAI的新模型o1表示担忧,认为它可能帮助专家规划并重现已知的生物威胁,而公司在开发过程中可能忽略了这种危险能力。他质疑OpenAI是否能够负责任地制定与高级人工智能(AGI)相关的决策,并因此辞职。
此外,OpenAI被曝出对离职员工施加限制性极强的离职文件,威胁他们在放弃既得股权和同意不批评公司之间做出选择。这种做法在硅谷并不常见,引起了内部的不满。首席执行官Sam Altman和首席战略官Jason Kwon对此表示歉意,但外媒指出公司领导层的道歉存在问题。
前员工Leopold Aschenbrenner透露,他因撰写关于OpenAI安全性的内部备忘录并与董事会分享而被解雇。他被指控泄露信息,但实际原因似乎是他与董事会分享了安全备忘录。Aschenbrenner表示,他在被解雇前与律师的对峙中被问及对人工智能发展的看法,以及他在OpenAI董事会活动期间的行为。
Saunders和其他员工曾签署公开信,警告先进人工智能的潜在风险,并认为在政府有效监督AI企业之前,现任和前任员工有责任发声。然而,广泛的保密协议限制了他们表达担忧的权利。Saunders在听证会上表达了对可能遭受报复的担忧,指出他们不是第一批遇到或决定正视这些问题的人。
原文和模型
【原文链接】 阅读原文 [ 2847字 | 12分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★