当人工智能的代码能力跨越某个临界点时,网络安全的游戏规则正在被彻底改写。2026 年 4 月,Anthropic 正式发布 Project Glasswing,一个将前沿 AI 模型用于防御性安全的开创性项目。这个项目不仅揭示了当前 AI 在漏洞发现方面的惊人能力,更为整个安全行业提供了一种全新的协作范式。理解 Project Glasswing 的技术内核,对于把握 AI 时代安全防御的走向具有重要的参考价值。

前沿模型的能力临界点

Project Glasswing 的核心是一个名为 Claude Mythos Preview 的未发布前沿模型。根据 Anthropic 官方披露,这个模型在软件编码任务上展现了质的飞跃。在 SWE-bench Verified、Terminal-Bench 2.0 等权威基准测试中,Mythos Preview 的表现显著超越其下一代模型 Claude Opus 4.6。值得注意的是,在 Terminal-Bench 2.0 中,当超时限制延长至四小时并采用最新的 2.1 版本更新时,Mythos Preview 达到了 92.1% 的得分。这种能力提升并非线性积累,而是在某个临界点发生了质的变化。

这种能力跃迁的直接后果是漏洞发现成本的大幅下降。传统安全审计依赖少数资深安全专家,耗时数月才能完成对关键代码库的全面审查。而 Mythos Preview 能够在数小时内自主完成同样的工作,且不需要人工引导。更值得关注的是,这个模型发现了一些在人类安全专家和自动化工具共同审查下存活了数十年的漏洞。OpenBSD 中存在了 27 年的远程拒绝服务漏洞、FFmpeg 中历经五百万次自动化测试仍未被发现的 16 年漏洞,都是典型的例证。这说明 AI 在漏洞发现方面不仅更快,而且能够触及人类专家容易忽略的认知盲区。

双刃剑:AI 的攻守双重性

Project Glasswing 的诞生源于一个核心矛盾:AI 模型发现和利用漏洞的能力正在快速提升,而这些能力如果落入恶意行为者之手,后果将极为严重。Anthropic 在项目中明确指出,当前 AI 模型的编码能力已经达到了一个临界点,它们在漏洞发现和利用方面的表现可以与最优秀的人类安全专家相媲美。这意味着曾经需要专业技能和大量时间才能进行的网络攻击,现在借助 AI 可以在更短时间内以更低成本完成。

这种双重用途的特性决定了 AI 安全工具不能像传统软件那样自由分发。Anthropic 因此决定不公开 Claude Mythos Preview,而是采用合作伙伴模式,仅向经过筛选的组织提供访问权限。这种策略反映了一个更广泛的行业共识:在 AI 安全领域,能力的释放必须与责任绑定。参与者不仅需要使用这些工具进行防御,还被要求与行业共享发现,以便整个生态系统受益。

合作伙伴模式的工程实践

Project Glasswing 采用了一种精心设计的合作伙伴架构。创始成员包括 AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorgan Chase、Linux Foundation、Microsoft、NVIDIA 和 Palo Alto Networks 等横跨云服务、操作系统、安全企业、金融机构和芯片厂商的巨头。此外还有超过四十个维护关键软件基础设施的组织获得访问权限。这种多元化的成员构成确保了项目能够覆盖从操作系统内核到企业级应用的广泛技术栈。

从工程实现角度看,参与者可以通过多个渠道访问 Claude Mythos Preview:Anthropic API、Amazon Bedrock、Google Cloud Vertex AI 和 Microsoft Foundry。这种多平台支持降低了接入门槛,使不同技术栈的组织都能参与其中。Anthropic 承诺投入一亿美元的模式使用积分来支持项目初期的运行,并额外捐赠四百万美元给开源安全组织,包括向 Alpha-Omega、OpenSSF 和 Apache Software Foundation 的定向捐赠。

合作伙伴的初步反馈揭示了模型在实际安全运营中的价值。Cisco 团队将模型应用于关键代码库,发现它能够帮助强化代码质量。AWS 在其安全运营中测试了模型,确认了它在代码分析方面的能力。Microsoft 在 CTI-REALM 基准测试中观察到了相对于前代模型的显著改进。这些来自不同组织的验证结果表明,AI 辅助安全检测已经具备了实际部署的可行性。

对开源生态的深远影响

开源软件构成了现代数字基础设施的基石,但开源项目的安全维护长期面临资源不足的困境。单个开源维护者往往需要同时兼顾功能开发、漏洞修复和社区运营,难以投入足够精力进行系统的安全审计。Project Glasswing 试图通过向开源维护者提供先进 AI 工具来改变这一局面。

具体的工程参数包括:维护者可以通过 Claude for Open Source 计划申请访问权限,获得针对其代码库的漏洞扫描能力。Anthropic 与 Linux Foundation 的合作确保了资金能够触达最需要支持的开源项目。这种模式的价值在于,它将原本只有大型企业才能负担的安全能力,下放到了社区层面的开源项目中。从长远看,这有助于提升整个软件供应链的安全性基线。

安全实践的演进方向

随着 Project Glasswing 的推进,一系列围绕 AI 时代安全实践的问题正在被重新定义。漏洞披露流程需要适应 AI 发现漏洞的速度 —— 过去以月计的披露窗口现在可能被压缩到以天甚至小时计。软件更新机制需要更加敏捷,以及时修补 AI 发现的零日漏洞。开发流程中的安全左移理念需要与 AI 代码审查深度整合。自动化补丁生成与部署的可行性也成为了值得探索的方向。

Anthropic 计划在项目启动后的九十天内发布公开报告,分享学到的经验和可披露的漏洞修复信息。同时,将与领先的安全组织合作制定实用的建议框架,覆盖漏洞披露、软件开发周期、安全设计实践、自动化补丁等关键领域。这些输出将为整个行业提供可操作的参考标准。

从更宏观的视角看,Project Glasswing 代表了一种新的安全范式:不是等待漏洞被发现后再修补,而是主动利用 AI 能力进行系统性的漏洞挖掘。这种转变的意义在于,它将安全防御从被动响应模式转向主动预防模式。当然,这种模式的有效性取决于 AI 能力的持续提升以及行业协作的深度。未来的网络安全格局将在很大程度上取决于防御方能否保持对攻击方的技术领先,而 Project Glasswing 正是这场竞赛中的一个重要里程碑。

资料来源:https://www.anthropic.com/glasswing