据多家媒体 2026 年 4 月 19 日披露,美国国家安全局(NSA)正在使用 Anthropic 旗下的下一代 AI 模型 Mythos Preview,尽管美国国防部已将 Anthropic 标记为供应链风险并对其实施黑名单。这一发现暴露了美国政府 AI 采购政策执行中的深层矛盾,以及供应商锁定风险在政府技术部署中的系统性挑战。
黑名单制度与执行现状
2026 年 3 月初,美国国防部正式将 Anthropic 标记为 “供应链风险”(Supply Chain Risk),这一史无前例的举措意味着任何与国防部合作的承包商 —— 包括亚马逊、微软和 Palantir—— 必须证明其未在军事相关工作中使用 Anthropic 的 Claude 模型。随后,美国总统特朗普于 2 月底通过社交媒体发布命令,要求联邦政府 “立即停止” 使用 Anthropic 的所有技术。
然而,NSA 作为美国情报体系的核心组成部分,似乎并未受制于这一禁令。报道显示,NSA 不仅获得了 Mythos 的访问权限,还将其用于网络安全任务。这一现象揭示了美国政府内部在 AI 采购政策上的显著分歧: civilian agencies(民用机构)与国家安全机构基于各自任务需求,对同一供应商采取了截然不同的态度。
供应商锁定风险的深层逻辑
政府 AI 采购中的供应商锁定风险并非新概念,但在当前 AI 技术快速迭代的背景下,这一问题的严重性被显著放大。当一个政府部门深度依赖某一特定供应商的模型时,迁移成本会随着时间推移而成倍增长。这种成本不仅包括技术适配和人员培训,还涉及历史数据的兼容性问题以及工作流程的重新设计。
Anthropic 与美国政府的关系演变极具代表性。这家 AI 初创公司曾是五角大楼的合作伙伴,于 2025 年 7 月签署了价值 2 亿美元的合同,成为首个在机密网络上部署技术的 AI 实验室。然而,当双方在 2025 年 9 月开始谈判 Claude 在国防部 GenAI.mil 平台上的部署方式时,谈判陷入僵局。国防部坚持要求对 Anthropic 技术拥有无限制访问权限用于所有合法目的,而 Anthropic 则对将 AI 用于自主武器或大规模监控表示担忧。
政策执行机制的结构性缺陷
NSA 使用黑名单外模型的现象,暴露出美国政府供应链风险管理机制的几处关键漏洞。首先,不同政府机构之间的信息共享和协调机制存在明显缺陷 ——NSA 获取 Mythos 的途径表明,即使是正式的黑名单也难以覆盖所有政府分支。其次,“供应链风险” 标签的定义和执行标准缺乏透明度。联邦法官 Rita Lin 在 3 月 24 日的听证会上直言不讳地质疑国防部的做法:“如果仅仅因为一家 IT 供应商固执己见、坚持某些条款并提出烦人的问题,就可以被标记为供应链风险,因为这可能意味着他们不可信 —— 这门槛似乎太低了。”
Anthropic 已对特朗普政府提起诉讼,指控其被不公平地针对,原因是该公司坚持要求国防部不要将 Claude 用于完全自主的武器或大规模监控美国公民。诉讼文件显示,如果不暂时中止黑名单,公司可能损失数十亿美元的业务并遭受进一步声誉损害。
工程化应对建议
针对政府 AI 采购中的供应商锁定风险和技术政策执行漏洞,可从以下几个维度构建防御体系。第一,采购合同中应明确数据可移植性条款,要求供应商提供标准化的数据导出接口和模型权重格式,确保在必要时能够平滑迁移至替代方案。第二,建立跨机构的 AI 供应商黑名单实时同步机制,由专门的政策协调办公室负责维护并强制执行,所有联邦机构在采购前必须进行合规性查询。第三,引入 “红队评估” 制度,定期测试现有供应商模型的替代方案可用性,确保不存在单一供应商依赖。
对于黑名单的执行效力,建议采用 “零信任” 架构原则 —— 默认不信任任何供应商的承诺,通过技术手段(如 API 网关审计、模型调用日志分析)实时监控各机构的实际使用情况。同时,应建立明确的违规追责机制,将绕过黑名单采购的行为纳入行政问责范畴。
结语
NSA 采用黑名单外 Anthropic 模型的事件,本质上反映了技术采购中安全需求与运营效率之间的深层张力。当国家安全机构基于具体任务需求选择性地忽视政策限制时,黑名单制度的威慑力将被严重削弱。这一案例也为全球各国政府敲响警钟:在 AI 技术快速迭代的时代,建立透明、连贯且可执行的供应链风险管理框架已刻不容缓。
资料来源:CNBC 报道(2026 年 3 月 24 日)、Axios 新闻(2026 年 4 月 19 日)。