喊话谷歌、OpenAI,微软AI CEO亮出「人文超级智能」底牌

AIGC动态2小时前发布 AIera
54 0 0
喊话谷歌、OpenAI,微软AI CEO亮出「人文超级智能」底牌

 

文章摘要


【关 键 词】 AI发展超级智能人文主义医疗应用安全风险

微软AI CEO穆斯塔法·苏莱曼近期公开宣称,AI已经超越人类能力,并预测自主AI智能体将在未来12-18个月内实现日常任务执行。他特别提到AI在购物、电影推荐等场景的应用潜力,尽管当前仍存在幻觉问题和操作错误,但通过人类介入机制可确保安全性。苏莱曼强调,AI在创意性、小众任务中表现尤为突出,其团队正在实验的Copilot Actions功能已能自主完成订票等操作,未来将实现更复杂的个性化服务。

苏莱曼提出“人文主义超级智能”概念,主张AI发展必须与人类利益深度绑定。作为微软新成立的超级智能团队负责人,他反对行业内的AGI竞赛叙事,认为超级智能伴随巨大风险,需优先解决约束和对齐问题。这一理念延续了微软一贯的谨慎战略,其核心是确保AI系统在安全验证前不进入失控状态。值得注意的是,Meta、OpenAI等企业近期也纷纷布局超级智能研究,但苏莱曼指出,行业尚未形成统一的安全标准,需加强透明度审查和政府协作。

医疗领域被视为超级智能最早落地的突破口。苏莱曼透露,微软开发的AI诊断系统在罕见病识别上已显著优于人类医生,准确率更高且成本更低,相关成果即将进入临床试验阶段。这一进展与其个人经历密切相关——其母亲从事护理工作,使他坚信技术应服务于人类福祉。微软数据显示,医疗健康搜索是其Co-pilot最高频应用场景,印证了该领域的迫切需求。

关于技术演进的时间表,行业领袖存在明显分歧。OpenAI CEO奥特曼预测AGI最早2025年实现,谷歌DeepMind哈萨比斯则认为需要5-10年。苏莱曼虽未明确时间节点,但指出当前大模型的局限性:对提示词过度敏感、常识理解不稳定等问题制约着实用化进程。他特别警告,未来5-10年可能出现AI自主改进代码、设定目标的能力,这将实质性提升风险等级,必须建立相应的防控机制。

在伦理层面,苏莱曼回避道德优越性表述,但强调微软已主动限制高风险AI服务。他回顾了行业多次因安全分歧产生的组织裂变,包括OpenAI创始团队出走创立Anthropic等事件,认为这反映出对齐问题的重要性。微软目前正推动行业自审机制,要求开发者明确其技术是否符合人文主义原则。这种立场既是对资本驱动型创新的制衡,也体现了老牌科技公司在技术激进浪潮中的维稳角色。

原文和模型


【原文链接】 阅读原文 [ 2464字 | 10分钟 ]
【原文作者】 新智元
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“讯飞星辰”

暂无评论

暂无评论...