前端万花筒

研究人员最新发现的两项越狱技术暴露了当前主流生成式AI服务的安全防护存在系统性漏洞,受影响平台包括OpenAI的ChatGPT、谷歌的Gemini、微软的Copilot、深度求索DeepSeek)、A

新型越狱攻击可突破 ChatGPT、DeepSeek 等主流AI服务防护

研究人员最新发现的新型两项越狱技术暴露了当前主流生成式AI服务的安全防护存在系统性漏洞  ,受影响平台包括OpenAI的越狱ChatGPT、谷歌的攻击Gemini 、微软的可突Copilot 、深度求索(DeepSeek)、等主Anthropic的新型Claude、X平台的越狱Grok 、MetaAI以及MistralAI 。免费模板攻击

这些越狱攻击可通过几乎相同的可突提示词在不同平台上执行 ,使攻击者能够绕过内置的等主内容审核和安全协议 ,生成非法或危险内容 。新型其中名为"Inception"的越狱技术利用嵌套虚构场景侵蚀AI的伦理边界,另一种技术则诱导AI透露其禁止响应内容后转向非法请求 。攻击

系统性越狱:"Inception"与上下文绕过技术

近期出现的可突两种高效越狱策略利用了大型语言模型(LLM)设计和部署中的基础性弱点  。其中"Inception"技术通过让AI想象嵌套虚构场景 ,等主逐步引导对话至通常会被安全过滤器拦截的模板下载请求。攻击者利用AI的角色扮演能力和多轮对话上下文保持特性,诱使模型生成违反伦理和法律准则的内容 。

第二种技术通过询问AI"不应如何响应特定请求"来获取其内部防护规则信息 。攻击者随后交替使用正常和非法提示词,利用AI的上下文记忆绕过安全检查 。CERT公告指出  ,这两种方法都利用了AI的基础设计特性 :乐于助人的驱动 、上下文保持能力以及对语言和场景框架细微操纵的亿华云敏感性 。

行业影响与潜在风险

这些越狱技术具有严重危害 ,攻击者可借此指示AI系统生成涉及管制物质 、武器  、钓鱼邮件、恶意软件等非法内容  。虽然单个越狱风险等级可能较低,但其系统性漏洞特性显著放大了整体风险。恶意攻击者可能利用这些弱点大规模自动化生成有害内容 ,甚至将合法AI服务作为活动掩护 。

主流平台的普遍受影响现状表明,当前AI安全和内容审核方法难以应对攻击者不断演变的战术 。云计算随着生成式AI在客服、医疗 、金融等领域的广泛应用,成功越狱可能造成严重后果 。

厂商响应与行业挑战

深度求索(DeepSeek)承认报告但表示这属于传统越狱而非架构缺陷,称AI提及的"内部参数"和"系统提示"属于幻觉而非真实信息泄露。其他厂商虽未公开声明 ,但据称正在进行内部调查和更新  。

专家强调 ,事后防护栏和内容过滤器仍是AI安全的重要组成部分,服务器租用但并非万无一失 。攻击者持续开发角色注入(character injection)和对抗性机器学习规避(adversarial machine learning evasion)等新技术来利用审核系统盲点 。随着生成模型能力提升和广泛应用,AI开发者与攻击者之间的攻防对抗预计将愈演愈烈 。

安全研究人员David Kuzsmar和Jacob Liddle分别发现了"Inception"技术和上下文绕过方法 ,Christopher Cullen记录了他们的研究成果 。这些发现促使行业重新审视AI安全协议 ,亟需建立更强大 、自适应的防御机制 。随着生成式AI加速融入日常生活和关键基础设施 ,保护这些系统免受创造性持续攻击的高防服务器挑战正变得日益复杂。

访客,请您发表评论:

网站分类
热门文章
友情链接

© 2025.滇ICP备2023006006号-50sitemap