2026 年 4 月,Google 宣布将向 Anthropic 投资至多 400 亿美元,这一消息在 AI 行业引发了广泛关注。这笔投资不仅刷新了 AI 领域最大单笔投资记录,更深刻反映了当前大模型竞争格局中算力基础设施的战略重要性。首批 100 亿美元现金投资已即刻到位,Anthropic 投后估值达到 3500 亿美元;后续 300 亿美元将根据 Anthropic 是否达成特定绩效目标逐步释放。这笔交易的达成,标志着 AI 推理基础设施竞争进入新阶段。
TPU 集群:Google 的核心竞争力
Anthropic 与 Google 的合作关系可追溯至数年前。Anthropic 长期依赖 Google Cloud 的 Tensor Processing Units(TPUs),这些专用 AI 芯片被视为英伟达 GPU 最具竞争力的替代方案。2026 年 4 月初,Anthropic、 Google 与芯片设计公司 Broadcom 联合宣布达成战略合作,计划从 2027 年起获取数吉瓦级别的 TPU 算力。值得注意的是,Broadcom 随后提交的证券文件显示,该合作规模确定为 3.5 吉瓦,这一数字足以支撑下一代前沿模型的训练与推理需求。
最新的 400 亿美元投资进一步扩大了这一合作框架。根据协议,Google Cloud 将在未来五年内向 Anthropic 额外提供 5 吉瓦算力容量,这一规模相当于目前许多超大规模数据中心总用电量的数倍。5 吉瓦的算力部署意味着 Anthropic 将能够运行包含数千亿参数的大规模模型,并支持企业级应用的实时推理请求。这种规模的算力交付,在 AI 基础设施领域尚属首次。
推理优先:基础设施范式转移
与以往关注模型训练算力不同,这笔投资的重点明显偏向推理基础设施。随着 Claude 等大模型在企业场景中的广泛应用,推理请求的处理能力已成为衡量 AI 系统成熟度的关键指标。Anthropic 近期推出的最新模型 Mythos 是目前最强大的模型版本,具有显著的网络安全应用价值,但由于潜在的滥用风险,仅向有限合作伙伴开放。这种受限发布策略本身就对推理基础设施提出了更高要求 —— 需要支持更精细的访问控制、流量调度与安全审计。
Anthropic 近期面临的 Claude 使用限制投诉也印证了推理算力不足的现实挑战。用户反馈显示,高峰时段的响应延迟与可用额度缩减已成为影响用户体验的主要因素。5 吉瓦的新增算力将直接缓解这一瓶颈,使 Anthropic 能够支撑更大规模的并发推理请求。
集群建设的工程挑战
5 吉瓦算力集群的部署面临多重工程挑战。首先是电力供应问题:5 吉瓦相当于约 5000 户家庭的年用电量,需要专门的电网升级与可再生能源配套。其次是冷却系统 —— 高密度计算节点产生的热量需要创新冷却方案。此外,网络架构必须能够支撑跨数据中心的模型并行与数据同步。
Anthropic 的应对策略是多元化布局。2025 年 11 月,公司宣布投入 500 亿美元建设美国本土 AI 基础设施,首批数据中心选址德克萨斯州与纽约州,预计 2026 年首个站点投入运营。与 CoreWeave 的合作进一步补充了云计算资源的弹性调配能力。加上来自 Amazon 的 50 亿美元投资(作为 Anthropic 未来 100 亿美元云支出的对价,可获得约 5 吉瓦算力),Anthropic 正在构建一个覆盖多个云服务商与自建数据中心的混合架构。
产业格局的深层影响
Google 对 Anthropic 的投资逻辑值得深思。作为 AI 模型领域的直接竞争对手,Google 为何要向潜在威胁提供如此大规模的基础设施支持?答案在于双赢:Google Cloud 需要 Anthropic 这样的旗舰客户来证明其 TPU 生态的商业价值;而 Anthropic 则需要摆脱对单一供应商的依赖,通过多云架构确保供应链安全。
这种 “竞争合作” 关系正在重塑 AI 产业链。芯片制造商(如 Broadcom)、云服务商(如 Google、AWS、CoreWeave)与 AI 模型公司之间形成了复杂的依存网络。对于行业观察者而言,关注这类基础设施投资背后的算力分配与技术路线选择,比单纯追踪模型性能排名更具前瞻价值。
资料来源:本文事实依据主要来自 TechCrunch 2026 年 4 月 24 日报道及 Bloomberg 相关报道。