标签:AI安全
两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了
在一项引人注目的AI安全词模拟实验中,两个人工智能系统Llama 3.1 405B和Claude Opus之间的对话被记录和分析。实验的目的是为了测试AI系统的安全可控性,特别...
一文总结马斯克最新八小时访谈:Neuralink、xAI 及人类未来
在一次深入的讨论中,埃隆·马斯克和Neuralink团队分享了他们对人类与人工智能(AI)未来融合的愿景。马斯克强调了“第一性原理”的思维方式,认为提高人与机器...
OpenAI发布最新大模型安全对齐奖励方法——RBR
随着大型语言模型(LLM)如ChatGPT的普及,确保其输出安全性变得至关重要。然而,传统的基于人类反馈的强化学习(RLHF)方法存在成本高昂和潜在偏见的问题。...
OpenAI被举报:非法限制员工披露AI安全风险
OpenAI,作为人工智能领域的领军企业,近期却因员工权益问题陷入舆论漩涡。据《华盛顿邮报》报道,该公司被指设置非法限制,通过霸王条款限制员工对AI安全风...
要把开源管起来,还要“一举两得”限制中国,加州这个SB-1047法案被LeCun等大佬骂惨了
Meta首席人工智能科学家、深度学习之父Yann LeCun对SB-1047法案及其主要起草者Dan Hendrycks提出批评。SB-1047法案由加州参议员Scott Wiener提出,旨在设立严...
WAIC 首日集锦丨AI 春晚, 大佬都说了啥?
2024年世界人工智能大会暨人工智能全球治理高级别会议在上海成功举办,吸引了众多学术界、产业界代表参与。大会聚焦AI应用落地问题,探讨了大模型、具身智能...
OpenAI正引发全球AI安全热战,我们将如何应对?|钛媒体AGI
OpenAI联合创始人伊利亚·苏茨克维尔宣布创办一家名为“安全超级智能公司”(SSI)的新企业,专注于构建安全的超级智能。伊利亚与科技企业家Daniel Gross和前Ope...
Ilya的新创业伙伴,是个技术加强版的Sam Altman?
Ilya Sutskever在离开OpenAI后,创办了新公司Safe Superintelligence Inc. (SSI),专注于开发安全的超级智能。SSI是一家纯研究机构,目标是通过嵌入工程突破...
跨越AGI,Ilya官宣创业!我要的是「核安全」,SSI剑指安全超级智能
Ilya Sutskever,OpenAI的关键人物,宣布离开并创立了一家名为Safe Superintelligence Inc(SSI)的新公司,专注于开发安全的超级智能技术。这一消息在社交媒...
Hinton为拒马斯克offer扯谎挂电话,警告AI取代人类比想象中快30年
Geoffrey Hinton,图灵奖得主及深度学习先驱,在最近的专访中分享了他对人工智能未来发展的深刻见解。Hinton认为,在接下来的5到20年中,人工智能有一半的概...