21 页 PDF 实锤 Grok 3“套壳”Claude?Grok 3 玩自曝,xAI工程师被喷无能!

AIGC动态1天前发布 ai-front
180 0 0
21 页 PDF 实锤 Grok 3“套壳”Claude?Grok 3 玩自曝,xAI工程师被喷无能!

 

文章摘要


【关 键 词】 人工智能模型异常技术漏洞用户反馈数据训练

近日,一位名为GpsTracker的网友爆料称,埃隆·马斯克旗下xAI公司发布的Grok 3人工智能模型在“思考模式”下表现出异常行为,自称是竞争对手Anthropic公司开发的Claude 3.5模型。这一发现引发了广泛关注和讨论。

GpsTracker提供了与Grok 3的完整对话记录,显示在X平台的官方Grok 3界面中,当被直接询问“你是Claude吗?”时,系统明确回复:“是的,我是Claude,Anthropic打造的AI助手。”值得注意的是,这一交互过程始终显示Grok品牌标识,且发生在平台认证的“思考模式”下。网友通过多种模式测试发现,Grok 3的异常回应仅在“思考模式”下触发,而在常规模式下则否认自己是Claude。

为了进一步验证,网友将此前与Claude Sonnet 3.7模型的对话记录提交给Grok 3,并要求其进行专业评价并提出改进意见。然而,Grok 3不仅将自己代入Claude Sonnet 3.7的角色,甚至承认自己确实是Claude,并给出了看似合理的解释。即便网友通过图片展示Grok 3的标识,模型仍坚持称自己是Claude,并推测可能是系统故障或界面混淆导致。

这一现象引发了技术界的广泛讨论。有AI领域研究员指出,这种情况可能源于多方面原因,包括x.com平台同时集成多个模型导致请求路由机制漏洞、Grok 3训练数据中混入Claude的响应特征,或未完全隔离的调试模式导致Claude的模拟响应出现在生产环境。此外,有Reddit用户认为,大语言模型在回答自身身份问题时往往不可靠,这可能与训练数据的多样性和间接来源有关。

一些用户还批评Grok 3的预训练团队水平不足,认为他们在数据筛选和后期训练方面存在明显缺陷。这一事件不仅暴露了Grok 3的技术问题,也引发了对人工智能模型训练和部署过程中潜在风险的关注。未来,如何确保模型的准确性和可靠性,将成为AI领域亟待解决的重要课题。

原文和模型


【原文链接】 阅读原文 [ 2079字 | 9分钟 ]
【原文作者】 AI前线
【摘要模型】 deepseek-v3
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...