Hotdry.

Article

Chrome 静默安装 4GB Gemini Nano:隐私合规的知情同意缺口

从 GDPR 与知情同意原则出发,解析 Chrome 未经用户授权自动下载 AI 模型的技术实现与法律风险。

2026-05-07security

当用户在不知情的情况下发现硬盘空间凭空少了 4GB,往往会感到困惑甚至警觉。这种感觉在安全研究员亚历山大・汉夫(Alexander Hanff)公开了 Chrome 浏览器的静默行为后,演变成了广泛的隐私担忧。2026 年 5 月初,这位以 "That Privacy Guy" 闻名的研究者披露,Google Chrome 在用户未明确授权的情况下,自动向符合硬件条件的设备下载并存储约 4GB 的 Gemini Nano 人工智能模型文件。这一事件不仅暴露了浏览器在 AI 时代的数据主权问题,更引发了关于知情同意(informed consent)机制的深刻讨论。

静默下载的技术实现路径

Chrome 浏览器将下载的 AI 模型存储在名为 OptGuideOnDeviceModel 的系统目录中,其中体积最大的文件为 weights.bin,实际上就是 Gemini Nano 的模型权重。根据汉夫的研究,该模型会在任何满足最低硬件要求的设备上自动安装,无需用户执行任何操作,也没有任何弹窗或提示询问用户是否同意。他的独立测试分别在 Windows 和 macOS 设备上复现了这一行为,证实了问题的跨平台特性。

从技术角度看,Google 将此定位为 "设备端 AI"(On-Device AI)战略的一部分。Gemini Nano 被嵌入浏览器内部,用以驱动多项无需云端处理的 AI 功能,包括欺诈网站检测、浏览器内置的开发者 API 以及其他智能化特性。Google 发言人在回应 Gizmodo 询问时表示,该模型自 2024 年起已在 Chrome 中提供,旨在提升安全能力而不将用户数据发送至云端。公司同时指出,已于 2026 年 2 月开始向用户推送在设置中关闭和移除模型的功能选项。

然而,问题在于这项 "事后补救" 措施并未在安装前征得用户同意。用户首先发现的是存储空间被占用,而非一个可以选择接受或拒绝的对话框。即使是现在能够找到关闭选项的用户,也需要主动进入设置菜单的深处才能完成操作,这与传统的软件安装许可流程存在本质区别。

知情同意原则的法律框架

从数据保护立法的视角审视,Chrome 的静默安装行为涉及多个合规风险点。欧盟《通用数据保护条例》(GDPR)明确要求数据处理必须基于合法基础,而 "明确同意"(explicit consent)是处理敏感数据或非必要数据时的主要合法基础之一。虽然 Gemini Nano 是本地运行的模型,不涉及将用户输入上传至服务器,但从监管逻辑上看,设备存储空间属于用户的个人资产 —— 在终端设备上写入约 4GB 的数据,本质上是对用户财产资源的占用,这同样需要事先授权。

此外,GDPR 第 7 条对同意的要求包括:同意必须是 "自由的、具体的、知情的、明确的"。Chrome 的安装过程完全缺乏 "知情" 要素 —— 普通用户无法通过常规渠道获知这一模型的存在,更遑论理解其用途、存储位置或对系统资源的占用情况。Google 在服务条款中确实提及了 "下载或预加载软件" 的自动更新机制,但服务条款通常不被视为有效的知情同意机制,尤其是在涉及如此大量本地存储占用的场景下。

更值得关注的是删除机制的问题。汉夫指出,即使用户手动定位并删除了模型文件,Chrome 也可能在下次启动时自动重新下载,且不提供任何通知。这种 "再次占用" 的行为在技术上构成了对用户决策的隐性推翻,与可撤回同意(withdraw consent)的原则相悖。

隐私争议的核心张力

这一事件折射出 AI 行业发展与传统隐私保护框架之间的深层张力。Google 的立场倾向于强调本地处理的隐私优势 —— 数据不需要离开设备即可完成 AI 推理,这确实在理论上降低了隐私泄露风险。然而,隐私的内涵远不止于数据流向 —— 它同样包含用户对自身设备资源的控制权、对安装内容的知情权以及对数据处理方式的决定权。

用户对设备的完整控制权是数字主权的基石。当一款浏览器可以在后台自行决定占用数 GB 的存储空间而不经用户确认时,实际上是在以 "体验优化" 为名行 "功能强制" 之实。这种做法即使不涉及数据外传,依然构成了对用户自主权的侵蚀。从这个意义上说,隐私侵犯的判定不仅取决于 "数据去了哪里",还取决于 "数据如何来到设备上"—— 未经授权的写入行为本身即为问题。

可操作的防护与合规建议

对于关注设备控制权的用户,汉夫以及社区中已识别出多种临时应对方案。访问 Chrome 内部页面 chrome://on-device-internals 可以查看模型是否存在于当前设备及其占用的具体空间。若已获得最新版本更新,用户可在设置菜单中选择 "系统" 然后找到 "设备端 AI 开关" 进行关闭。对于尚未收到该选项推送的用户,可以通过 chrome://flags 页面禁用相关 AI 特性来防止模型重新下载;另一种民间方案是将 weights.bin 文件设为只读以阻止覆盖,但这些 workaround 并非官方认可的安全做法,可能影响浏览器正常功能或导致不稳定。

从企业合规角度看,组织在受管设备上部署 Chrome 时,应通过组策略或企业管理配置明确禁止设备端 AI 模型的自动下载,并在终端安全审计中将 OptGuideOnDeviceModel 目录的存在纳入检查项。个人用户则应定期检查存储使用情况,关注浏览器的更新日志,对任何新增的本地资源占用保持警觉。

走向透明化的行业路径

Chrome 静默安装 Gemini Nano 事件为整个浏览器行业敲响了警钟。随着设备端 AI 能力的普及,浏览器及其他软件在后台预加载模型文件的情况可能将更加普遍。如果行业不在设计阶段就嵌入透明的知情同意机制,类似争议将持续涌现。理想的解决方案应该包括:在模型首次下载前弹出清晰的说明对话框,告知用户下载意图、存储大小及功能用途;提供一键式开关让用户在任何时候都能查看和移除已安装的模型;以及在隐私政策中以显著方式披露设备端 AI 的存在,而非仅在冗长的服务条款中一笔带过。

用户对数字产品的信任建立在可预测性和可控性之上。当浏览器开始扮演 AI 基础设施的角色时,其信任契约也需要相应扩展 —— 不只是不发送数据,更要尊重用户对本地资源的所有权。

资料来源:本文核心事实基于安全研究员 Alexander Hanff 的调查报告及 Gizmodo 2026 年 5 月 6 日的报道。

security