文章摘要
【关 键 词】 AI安全、制度失效、现实主义、影响力博弈、文明豪赌
哈萨比斯从理想主义到现实主义的转变,标志着AI安全治理思路的根本性转向。他长期致力于构建“单体治理”模式,主张由少数精英在封闭环境中开发绝对安全的超级智能,并以摩洛哥沙漠或孤岛为潜在基地,试图规避地缘竞争与资本压力的影响。然而这一构想在2015年邀请马斯克主持秘密集会后迅速崩解——马斯克转而与奥特曼共建OpenAI,加速了技术失控进程。此后DeepMind推动“马里奥计划”试图建立新型治理机制、并与谷歌就控制权展开三年拉锯,同时参与英国医疗项目却遭遇隐私争议,多重努力最终失败。ChatGPT爆发进一步催化危机,迫使哈萨比斯将公司定位为“战争状态”,允许AI军用化合作、弱化伦理委员会职能,直至承认“即使有治理结构,关键时刻他们也可能做错决定”。
安全不再取决于制度设计,而系于个体能否坐上决策桌。 哈萨比斯最终放弃“制度控风险”的路径,选择主动介入权力核心,目标是确保当奇点逼近时,关键抉择者是始终对AI保持敬畏的自己。他如今的策略是:让自己成为权力一部分,以保留对技术走向的发言权与校准能力。 这一选择本质上是对人类治理能力的彻底祛魅,将希望寄托于“良知掌权”而非可靠制度。文中指出:“制度彻底死了”、“唯一希望只剩‘有良知的人掌握话语权’这种最脆弱、最危险的方案。”
值得注意的是,哈萨比斯的现实主义转型并非孤立现象,而是整个行业趋势的缩影。OpenAI董事会罢免奥特曼后的快速反转,进一步印证了非营利组织在商业逻辑与资本力量面前的脆弱性。AI竞赛本质是“谁先抵达临界点”的零和博弈,当生存威胁压倒伦理底线时,所有规则都沦为奢侈品。文章结尾警示:“人类本性早已把统一治理变成永远的笑话”,真正可期待的,不过是少数人坚守价值观并主导技术命脉的极限努力。
“安全不再取决于治理结构。即便有董事会,在关键时刻,他们也未必会做对的事。”
<“我必须坐上桌,争取影响力。”
<强>“事情不是非黑即白的……你不得不从理想主义者转变为现实主义者,但希望依然能坚守自己的价值观。”
<强>“真正失控的不是模型,而是人类竞赛。”
<强>“唯一希望,只剩‘有良知的人掌握话语权’这种最脆弱、最危险的方案。”
原文和模型
【原文链接】 阅读原文 [ 2601字 | 11分钟 ]
【原文作者】 新智元
【摘要模型】 qwen3-vl-flash-2026-01-22
【摘要评分】 ★★★★☆



