文章摘要
【关 键 词】 OpenAI、安全威胁、Gemini 3、反AI组织、技术竞争
OpenAI近期陷入技术竞争与安全威胁的双重危机。Google发布的Gemini 3模型对GPT-5.1形成显著优势,迫使CEO奥特曼在内部信中罕见承认技术落后。与此同时,激进反AI组织“Stop AI”的联合创始人Sam Kirchner因精神不稳定与组织决裂,并发出针对OpenAI员工的武装袭击威胁,导致公司紧急关闭办公室,要求员工隐藏身份标识避险。
事件源于Kirchner近期行为突变,他袭击同僚获取资金、公开唾弃非暴力原则,并在失踪前于社交媒体留下疑似独狼行动的隐晦宣言。警方通缉信息显示,他可能已购武器并锁定OpenAI多个办公地点为目标,促使公司启动最高级别安全戒备。旧金山总部周边响起警报时,员工们正同时承受技术失利与人身安全威胁的双重压力。
Stop AI组织迅速发表声明与Kirchner切割,强调其非暴力立场,但承认曾向AI公司预警潜在危险。该事件折射出AI伦理争议的极端化演变——从哲学辩论异化为实体冲突。此前该组织通过锁门、递传票等行为施压,而Kirchner的失控标志着反AI运动首次出现实质性暴力倾向。
危机暴露了AI行业面临的多维挑战。技术层面,GPT-5.1与Gemini 3的差距动摇了OpenAI的技术领先地位;社会层面,对AGI的恐惧正在催生极端行为。当工程师们摘下象征荣耀的工牌避险时,AI发展的人文悖论凸显:人类对失控的恐惧,反而可能先触发暴力失控。此次事件或成为AI发展史上的关键节点,预示着技术竞赛将与社会安全议题更深度交织。
原文和模型
【原文链接】 阅读原文 [ 1890字 | 8分钟 ]
【原文作者】 新智元
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★☆☆☆




