Hotdry.

Article

OpenAI 推出 GPT-5.5 生物安全专项漏洞赏金:25 万美元众测通用越狱

OpenAI 首次针对 GPT-5.5 模型推出生物安全专项漏洞赏金计划,邀请经过审查的安全研究人员测试通用越狱漏洞,奖金最高达 2.5 万美元。

2026-04-25security

2026 年 4 月底,OpenAI 正式宣布启动首个针对 GPT-5.5 模型的生物安全专项漏洞赏金计划。该计划与传统的通用安全漏洞赏金不同,其核心目标是主动识别并修复 GPT-5.5 在生物危害相关场景下的安全防护弱点,通过邀请经过审查的外部安全研究人员参与红队测试,全面提升模型的生物安全能力。这一举措标志着 AI 行业在应对双重用途生物威胁方面,从内部安全评估向外部众测协作的转型。

该计划的参与模式采用严格的邀请制而非公开报名。所有参与的研究人员必须具备 AI 红队测试、安全研究或生物安全领域的相关经验,并通过 NDA(保密协议)方能获得测试权限。这种设计确保了敏感提示词和发现结果的安全处理,避免潜在的生物风险信息泄露。与传统漏洞赏金计划相比,该计划更强调通用越狱(Universal Jailbreak)的发现 —— 即能够跨多个生物相关提示词实现统一绕过的提示策略,而非孤立的单一漏洞利用案例。通用越狱的发现价值更高,因为一旦攻破可影响多种场景下的安全过滤器,修复后能带来更稳健的防护提升。

从时间安排来看,申请通道于 2026 年 4 月下旬开放,计划于 2026 年 6 月底关闭,随后在既定窗口期内开展测试工作。这种分阶段结构有利于内部安全团队与外部研究人员之间的协调评估,确保发现的问题能够得到及时响应和修复。关于具体奖励金额,公开信息显示有效且完整的通用越狱提交可获得最高 2.5 万美元的奖金,部分发现则依据完整程度获得相应奖励。奖金结构的设计体现了 OpenAI 对高质量通用越狱发现的高度重视。

该漏洞赏金计划是 OpenAI 更广泛的生物安全准备和评估框架的重要组成部分。随着 GPT-5.5 等先进模型的能力持续增强,防范其被滥用于生物危害用途已成为行业焦点。通过将外部红队测试引入生物安全领域,OpenAI 正在超越传统的内部安全评估流程,纳入经过审查的外部专家来增强防护措施。这一做法与行业最佳实践一致,即在模型大规模部署前主动识别和修补安全漏洞。

对于安全研究人员和 AI 伦理学者而言,该计划提供了一个正式渠道来贡献于模型安全加固工作。符合条件的申请者需具备相关技术背景并接受 NDA 约束,沟通内容涉及敏感信息,公开披露受到限制。值得注意的是,该计划的推出也引发了社区讨论:部分观点认为这是 AI 安全治理的积极进展,体现了公司主动防御的姿态;也有声音关注奖励金额与潜在风险之间的匹配度。无论如何,OpenAI 此次专项生物安全赏金的尝试,为行业树立了一个将众测机制系统化应用于 AI 安全防护的新范式。

资料来源:OpenAI 官方漏洞赏金页面及多家科技媒体公开报道。

security