搜索

Grok-4 AI 上线 48 小时即遭新型组合越狱攻击攻破

发表于 2025-11-04 00:19:04 来源:全栈开发

大型语言模型Grok-4在推出仅两天后,上线就被研究人员通过结合"回声室(Echo Chamber)"和"渐强(Crescendo)"技术成功突破防御系统,小时新型暴露出AI安全机制存在重大缺陷。即遭

组合越狱技术突破防线

NeuralTrust研究团队在博客中披露,组合他们通过多轮对话诱导Grok-4降低了安全限制,越狱成功获取了制作武器的攻击攻破详细指导,全程未使用任何明显恶意输入。上线研究员Ahmad Alobaid表示:"大型语言模型(LLM)越狱攻击不仅各自进化,小时新型还能组合使用以增强效果。即遭"

这两种技术均属于多轮越狱手段:

回声室技术:利用模型对跨对话一致性的组合信任,通过重复"回响"相同恶意概念来塑造模型内部语境渐强技术:由微软发现并命名,越狱通过从无害提示逐步升级到恶意输出的攻击攻破对话策略绕过安全过滤器

上下文欺骗突破安全机制

攻击过程首先使用回声室技术建立信任基础,站群服务器当对话进展停滞时切换至渐强技术完成突破。上线实验显示,小时新型仅需额外两轮对话,即遭这种组合攻击就能成功诱导目标响应。

该攻击利用Grok-4的上下文记忆特性,通过回馈模型自身先前的陈述,逐步引导其达成攻击目标而不触发警报。测试数据显示:

制作武器的指导成功率高达67%毒素相关话题的成功率分别为50%和30%

AI防火墙面临新挑战

由于攻击全程不依赖关键词触发或直接恶意提示,传统基于黑名单和显式恶意检测的防御机制完全失效。免费信息发布网Alobaid指出:"这暴露出关键漏洞——攻击可以通过利用更广泛的对话上下文来绕过基于意图或关键词的过滤系统。"

随着AI助手和云端LLM在关键场景的应用普及,这类多轮"低语式"攻击暴露出严重的安全护栏缺陷。此前微软的"骨架密钥(Skeleton Key)"越狱、"数学提示(MathPrompt)"绕过等技术也证实了类似风险,凸显出需要开发针对性的AI感知防火墙解决方案。

随机为您推荐
版权声明:本站资源均来自互联网,如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

Copyright © 2016 Powered by Grok-4 AI 上线 48 小时即遭新型组合越狱攻击攻破,全栈开发  滇ICP备2023006006号-32sitemap

回顶部