随着编程智能体从「实验性玩具」演变为真正能够生成和评审代码的生产力工具,企业安全与 IT 团队面临一个棘手的困境:如何在不阻碍开发者工作流的前提下,实现对 AI 使用情况的可见性并施加有效控制?传统的 API 密钥管理模式在这种新型工作负载面前显得力不从心,密钥分发、轮换、撤销的运维负担与日俱增,同时安全团队对智能体的实际行为几乎一无所知。Tailscale 在 2026 年初推出的 Aperture 正是针对这一痛点的回应 —— 它将 Tailscale 赖以成名的零信任身份网络架构延伸至 AI 流量领域,打造了一款专为编程智能体设计的网关产品。
零信任理念在 AI 流量场景的延伸
Tailscale 的核心价值主张一直是「用零信任网络替代传统 VPN」,其技术基础是 WireGuard 协议与基于身份的细粒度访问控制列表。当企业网络中的每一台设备都通过 Tailscale 连接时,系统能够准确识别「谁在什么设备上访问了什么资源」,而非简单地将信任建立在 IP 地址或网络边界之上。Aperture 将这一理念移植到 AI 流量场景,本质上是把智能体对 LLM API 的调用纳入统一的身份治理框架中。
传统模式下,开发者需要在本地配置各种 LLM 提供商的 API 密钥,这些密钥可能散落在个人笔记本、CI/CD runner、容器镜像甚至团队共享的配置文件中。密钥一旦泄露或滥用,溯源极为困难;而企业若要限制某位开发者对特定模型的访问,只能通过禁用密钥来实现,这不仅影响该开发者使用的所有工具,还可能误伤其他合法用户。Aperture 通过让智能体流量先经过 Tailscale 网络再转发至 LLM 提供商,从根本上消除了密钥下发的需求 —— 访问控制直接绑定到用户的身份和设备身份,而非一段可被复制的字符串。
统一网关的核心能力
从功能角度来看,Aperture 承担着三重角色:流量透明代理、使用情况收集器以及策略执行点。作为透明代理,它支持所有主流 LLM 提供商的原生协议,同时兼容 OpenAI v1 版本的 chat completions 接口规范,这意味着无论是 Anthropic Claude、OpenAI GPT 系列、Google Gemini 还是自托管的开源模型,只要遵循标准化的 API 约定,都可以通过 Aperture 接入。这种广泛的兼容性降低了企业的迁移成本和集成复杂度。
在使用情况收集方面,Aperture 会记录每一次请求的详细元数据,包括但不限于请求数量、输入令牌数、输出令牌数、缓存命中率、推理令牌消耗、工具调用次数、使用的模型以及发起请求的用户身份和设备身份。这些数据以可视化仪表盘的形式呈现,支持按时间范围、用户、模型等多维度筛选和排序。对于安全团队而言,这意味着可以快速识别异常的使用模式 —— 例如某台机器在非工作时间发起大量请求、某用户突然开始使用此前从未接触过的模型、或者某次会话的工具调用组合呈现出可疑的数据外泄特征。
策略执行点的作用则体现在访问控制层面。管理员可以在 Aperture 中定义细粒度的策略,规定哪些用户或设备可以访问哪些模型、是否允许特定的工具调用、是否需要实时审计等。由于策略基于 Tailscale 的身份系统而非 IP 地址或 API 密钥,这些规则能够跨设备、跨网络位置一致地执行,即使开发者将工作流从办公室迁移到家庭网络或咖啡厅,访问控制逻辑也不会发生变化。
部署架构与配置要点
从架构角度理解,Aperture 部署在 Tailscale 网络的边界位置,所有发往 LLM API 的流量都需要经过它中转。对于开发者而言,接入过程被设计得尽可能无感:在 Claude Code 的配置文件中添加 Aperture 提供的端点和凭证即可,后续的请求路由、身份注入和日志记录全部由网关自动完成。整个过程不需要在操作系统层面安装额外代理,不需要修改企业网络的路由配置,也不需要为每台设备单独配置防火墙规则。
对于企业安全团队而言,部署 Aperture 需要关注以下几个关键参数。首先是身份提供商的集成深度 ——Aperture 直接复用 Tailscale tailnet 中已有的用户和设备身份,这意味着组织需要确保身份源(如 Okta、Google Workspace 或 Azure AD)与 Tailscale 的同步机制是健康且实时的,否则可能出现权限漂移或孤立账户的问题。其次是日志导出的目标位置,Aperture 支持将使用数据导出至 S3,进而与现有的 SIEM 系统(如 Splunk、Elastic)或数据湖集成,安全团队应提前规划好存储层级和保留策略,以平衡成本与合规需求。
另一个值得关注的配置维度是策略的粒度与更新频率。Aperture 允许针对不同用户组、设备标签甚至单个智能体实例定义不同的访问策略。例如,生产环境的代码审查智能体可能只被允许调用企业审批通过的特定模型版本,而开发人员的个人沙箱则可以自由尝试最新的前沿模型。这种分层策略在提供灵活性的同时也增加了管理复杂度,建议组织在初期采用相对宽松的策略进行观察,待收集足够的使用数据后再逐步收紧。
与通用 SASE 网关的差异化定位
企业安全市场上并不缺乏 AI 相关的网关或安全产品,Gartner 定义的 SASE(Secure Access Service Edge)框架下已有众多厂商提供了 AI 流量防护能力。然而,Aperture 的差异化在于它并非从零构建一套全新的身份和访问控制系统,而是选择了一条「延伸而非替代」的道路 —— 它复用 Tailscale 现有的 tailnet 基础设施,将 AI 流量治理无缝纳入企业已有的零信任架构中。
这种设计选择带来了几个实际优势。第一是运维一致性的提升,安全团队无需学习新的身份模型或策略语法,Aperture 的策略语言与 Tailscale ACL 一脉相承,组织中可以共享同一套权限管理的最佳实践。第二是部署速度的加快,由于不需要额外的身份联邦配置或证书颁发机构设置,启用 Aperture 的时间窗口可以从数周缩短到数小时。第三是用户摩擦的降低,开发者无需为 AI 访问单独申请权限或配置 VPN 隧道,他们日常使用的 Tailscale 网络已经天然支持智能体流量。
从 HN 社区的讨论来看,有用户质疑 Tailscale 进入 AI 领域是否偏离了公司的核心使命。但资深安全从业者指出,大型企业的内部网络在集中化管理 LLM 访问方面确实存在「噩梦般的配置复杂度」,而 Aperture 正是用简化 VPN 的思路来解决这个问题 —— 让原本只能是「愿望清单」级别的细粒度访问控制成为可实际落地的工程实践。从这个角度看,Aperture 并非 Tailscale 的战略转向,而是其零信任哲学在新兴工作负载上的自然延伸。
当前限制与演进方向
作为 private alpha 阶段的产品,Aperture 目前的覆盖范围仍有局限。其一,功能重心集中在编程智能体场景,对话式 AI 助手或其他类型的自主智能体尚未得到同等深度的支持。其二,虽然兼容 OpenAI v1 接口规范,但对于使用非标准协议的自定义 LLM 部署,可能需要额外的适配工作。其三,产品仍处于快速迭代期,API 稳定性、功能可用性和文档完善程度都可能在后续版本中发生变化,企业在评估时应将这点纳入风险考量。
从 Tailscale 官方透露的路线图来看,Aperture 的愿景远不止于编程智能体。公司认为各行各业都存在大量等待「智能体化」的业务流程,而统一的身份网关将成为这些新型工作负载的安全基座。Oso 作为首个官方合作伙伴,正在其 Agent Dashboard 上构建更细粒度的风险评分、告警规则和审计报告,这表明 Tailscale 正在将 Aperture 定位为一个开放的平台,而非封闭的单体产品。
对于正在探索如何在企业中规模化采用 AI 工具的安全团队而言,Aperture 提供了一个值得关注的选项。它并非万能解药,无法替代对智能体行为的运行时监控、输出内容的敏感度检测或数据泄露防护等其他层面的安全控制。但在一个 API 密钥满天飞、访问控制几乎形同虚设的现状面前,用零信任网关将 AI 流量纳入统一治理框架,至少是一个正确方向的起点。
资料来源:Tailscale 官方公告(https://lnkd.in/gq3P_E8V)、Hacker News 讨论(https://news.ycombinator.com/item?id=46782091)。