Hotdry.

Article

Chrome 设备端 AI 隐私声明的退与进:数据流向的技术拆解与用户对策

解析 Chrome 移除「设备端 AI 不发送数据至 Google 服务器」声明的背后工程动因,拆解混合架构的数据流向并给出可落地的用户控制参数。

2026-05-07systems

在浏览器隐私叙事的演进中,「设备端 AI」(On-Device AI)曾被塑造为兼顾安全防护与数据主权的理想方案。然而,Google 近期对 Chrome 隐私声明的调整揭示了这一承诺与工程现实之间的深层张力。本文从技术架构出发,拆解设备端 AI 的真实数据流向,分析声明变更的工程动因,并为用户提供可操作的控制参数。

设备端 AI 的技术定位与模型规模

Chrome 的设备端 AI 功能主要基于 Gemini Nano 模型实现。该模型在 2025 年后的版本中随 Chrome 更新自动分发,体积约为 4GB,针对欺诈检测、恶意软件识别等安全场景提供本地推理能力。从架构设计初衷来看,设备端运行意味着浏览器可以在不将用户浏览内容上传至云端的情况下完成威胁分析 —— 这符合隐私敏感型用户的预期。

然而,模型的静默分发策略在 2025 年底引发了广泛争议。部分用户在不知情的情况下发现磁盘空间被占用,触发了一场关于知情同意与透明度的讨论。Google 随后在 Chrome 设置中引入了显式的模型管理入口,允许用户在「隐私与安全」设置中查看、禁用或删除本地 AI 模型。

混合架构:设备端与云端的动态边界

理解设备端 AI 的隐私影响,关键在于认清其并非纯粹的本地计算。Chrome 的安全功能采用了动态路由机制:根据场景复杂度、设备算力与网络状况,浏览器会在本地推理与云端分析之间动态切换。以下是数据流向的核心参数:

本地处理场景: 当用户访问可疑页面时,Chrome 提取页面结构化特征(URL 模式、DOM 特征、交互行为指纹),在设备端运行模型推理。理论上,完整页面内容不会离开设备。

云端回退场景: 对于高风险或模型不确定的判断,Chrome 会将特征摘要发送至 Google 安全服务进行二次分析。此时数据流向服务器,但 Google 声明仅传输最小化特征集,而非完整页面内容。

模型更新场景: 设备端模型需要定期更新以应对新型威胁。更新包通过 Chrome 更新通道分发,这一过程不涉及用户数据的传输。

这种混合架构的设计逻辑在于平衡隐私与安全防护的精准度。但问题在于:用户无法区分具体某次判断是在本地还是云端完成,也无法控制这一边界。Google 早期曾明确宣示「设备端 AI 不发送数据至 Google 服务器」,随着混合架构的复杂性增加,这一声明在工程层面已不再准确。

声明变更的工程动因

移除「设备端 AI 不发送数据」声明背后存在三重工程考量。首先,功能演进导致数据流向不再单一化。早期版本的设备端 AI 确属纯本地运行,但随着诈骗检测等功能深度与频次的提升,云端回退成为保障防护有效性的必要手段。继续维持原有声明将构成事实性误导。

其次,监管合规压力日益增强。欧盟《数字服务法案》与 GDPR 对数据跨境传输的透明度提出明确要求。保留一个无法在技术上兑现的声明,可能面临监管风险。声明的调整本质上是一次防御性政策修订。

第三,用户信任修复。静默分发模型引发的争议表明,过度技术化的隐私叙事可能适得其反。移除过度承诺,转而提供可验证的控制权,反而有助于建立长期信任。

用户控制参数与可落地操作

面对这一变化,用户需要掌握具体的控制参数来维护自身的隐私边界。以下是在当前 Chrome 版本(Stable 120+)中可执行的设置路径与推荐参数:

入口路径: 设置 → 隐私与安全 → 设备端生成式 AI 模型(或在地址栏直接输入 chrome://settings/onDeviceGenAI)。

核心控制参数:

  • 模型状态查询: 页面会显示当前设备的模型版本与大小。如果显示「已安装」,则设备端 AI 功能处于活跃状态。
  • 禁用开关: 关闭「启用设备端 AI」开关将同时删除本地模型。此操作不可逆,重新启用需要重新下载(约 4GB)。
  • 删除时机: 如果追求最大化隐私且不依赖 Chrome 的本地诈骗检测,可选择直接删除模型。删除后,安全防护功能将回退至传统的云端 URL 信誉检查。

隐私权衡参考:

  • 启用本地模型时,本地推理不产生数据外传,但高风险场景的特征摘要仍可能回传云端。
  • 禁用本地模型后,所有安全检查通过云端完成,数据必然经由 Google 服务器处理。
  • macOS 与 Windows 平台的模型管理功能完整,iOS/Android 版本的功能集可能略有差异。

进阶建议: 对于企业环境管理员,Chrome Enterprise 策略提供了更细粒度的控制。可通过 OnDeviceGenAIModelAllowed 策略完全禁用设备端 AI 功能,并通过 OnDeviceGenAIDeleteModelOnDisable 控制禁用时的模型清理行为。

透明度的下一步

设备端 AI 的争议本质上反映了 AI 功能嵌入浏览器进程中的深层矛盾:用户期待「本地即隐私」,而工程现实需要灵活调度云端资源以保障功能效果。Google 此次移除声明并非放弃隐私承诺,而是承认技术复杂性的表现。

然而,透明度的真正实现不仅需要声明调整,更需要向用户交付可理解的「数据流向仪表盘」。当一次安全检查涉及本地推理时,用户应有能力验证数据确实未离开设备;当需要云端协作时,系统应明确告知传输了哪些信息、保留多长时间。只有将技术现实转化为可感知的控制权,设备端 AI 的隐私叙事才能真正站住脚。

对于普通用户,在当前阶段最务实的策略是根据自身威胁模型选择合适的模式:高安全需求场景可保留本地模型以获取即时防护并最小化数据外传;高隐私需求场景则可完全禁用,将安全检查交给云端并接受相应的数据处理。用户需要的不是一个完美的承诺,而是一套可理解、可验证、可操控的隐私工具集。


参考资料

  • Chrome 官方模型管理说明:chrome://settings/onDeviceGenAI
  • Forbes 报道:New Chrome Update Deletes Google's AI Data On Your Device (2026 年 1 月)

systems