2026 年 5 月,Anthropic 宣布与 SpaceX 达成计算资源合作协议,获得后者 Colossus 1 数据中心的全部算力接入。这一合作直接推动了 Claude Code 产品线的使用限额全面提升:五小时会话限制在 Pro、Max、Team 及企业版上均实现翻倍,同时移除了高峰时段的速率限制,Opus API 的调用上限也得到显著扩展。这一系列变化的背后,既反映了 AI 公司在算力紧张环境下的资源博弈,也揭示了云端算力协同对终端产品体验的直接影响。
计算瓶颈的形成与临界点
理解这次限额调整,需要回溯 2025 年下半年的算力供需格局。随着 Claude 系列模型在开发者和企业用户中的渗透率持续攀升,Anthropic 面临日益严峻的计算资源短缺问题。2025 年 8 月,公司首次引入每周使用上限,在原有的五小时滚动窗口基础上叠加了额外的配额约束;2026 年 3 月,进一步调整了高峰时段的限流策略,使繁忙时段的配额消耗速度加快。这些措施的本质是希望通过精细化的配额管理,在有限算力下保障尽可能广泛的用户覆盖。
然而,限额策略的收紧带来了明显的用户体验摩擦。Pro 计划用户在高峰时段频繁遭遇会话中断,Max 计划的重度用户则发现五小时窗口的配额难以支撑完整的深度推理任务。开发者社区的反馈表明,算力瓶颈正在从底层基础设施问题转化为直接影响用户留存的产品问题。
SpaceX Colossus 1 的算力规模
Anthropic 选择与 SpaceX 合作,核心考量在于后者数据中心的算力规模。Colossus 1 数据中心拥有超过 300 兆瓦的电力容量,部署超过 22 万块 Nvidia GPU,这一规模在业内处于领先水平。更关键的是,Anthropic 获得的是该数据中心全部容量的使用权限,这意味着其算力池在短时间内实现了质的飞跃。
从工程视角看,Colossus 1 的高密度 GPU 集群为大规模推理任务提供了硬件基础。22 万块 GPU 的并行调度能力,使 Anthropic 能够在不显著增加延迟的前提下,承接更高并发的 API 请求。对于 Claude Code 这样的对话式产品而言,更高的并发处理能力直接转化为更宽松的并发会话限制和更稳定的响应速度。
限额调整的具体参数
合作公告后,Claude Code 各计划的使用限额发生了以下变化:Pro 计划的五小时会话限制从约 22K tokens 提升至约 44K tokens,同时保留了每周总量上限但放宽了限制;Max 5x 计划从约 44K tokens 提升至约 88K tokens,Max 20x 计划从约 110K tokens 提升至约 220K tokens。Team 计划及企业版也实现了相应的限制放宽。值得注意的是,高峰时段的额外节流机制被完全移除,这意味着用户在任意时段获得的配额一致性大幅提升。
对于 Opus API 用户,速率限制的提升幅度更为显著,企业级开发者现在可以提交更大的批量请求而无需等待队列释放。这一变化对于需要大规模模型调用的企业级应用场景尤为重要。
云端算力协同的工程启示
Anthropic 与 SpaceX 的合作模式,为 AI 行业提供了一种算力扩容的可行路径。传统上,AI 公司倾向于自建数据中心或长期租赁云服务商的计算资源,但 SpaceX 合作展示了通过非传统渠道获取大规模算力的可能性。这种合作的关键在于算力提供方具备足够的基础设施规模,且其 GPU 资源在时间维度上存在可协调的闲置窗口。
从产品工程角度,算力扩容对用户体验的影响存在明确的映射关系:更大的推理吞吐量降低了请求排队时间,更宽松的会话限制减少了任务中断概率,一致的限流策略提升了产品可预测性。这些改进共同构成了用户感知层面的 “产品体验提升”,而非单纯的数字变化。
对于开发者和企业用户而言,理解这一背景有助于更合理地规划 Claude Code 的使用策略。在算力相对充裕的阶段,适当增加长会话任务的比重,充分利用更宽松的 API 限制,可以更高效地完成复杂推理工作。同时,关注 Anthropic 的后续算力采购动态,也有助于预判限额政策的走向。
资料来源:The Next Web、Axios、TechCrunch 关于 Anthropic 与 SpaceX 合作及 Claude Code 限额调整的报道;Anthropic 官方产品文档。