痛点:AI 聊天成新的数据泄露出口
过去两年,因员工把日志、代码或客户资料直接粘贴到 ChatGPT 而导致的密钥与 PII 泄露事件已多次见诸报端。传统 DLP 工具聚焦邮件、网盘与 U 盘,对「浏览器内输入」这一最后一公里几乎不设防。只要光标落入对话框,敏感信息就能在毫秒间发往第三方。privacyshield-ai 推出的开源项目 privacy-firewall 试图把防线前移:在本地浏览器侧完成实时检测与拦截,数据永不离开本机。
方案:双层过滤器 + 零外部请求
1. 浏览器扩展(MV3)
- 监听
paste与input事件,支持 ChatGPT、Claude、Gemini 等主流站点 - 内置 Regex-Lite 规则,覆盖邮箱、电话、AWS 密钥、JWT、SSN、MAC 等 10 类常见模式
- 命中后弹出阻断弹窗,用户可选择「继续」「编辑」或「取消」
2. 本地 FastAPI 引擎(可选)
- 基于
dslim/bert-base-NER,~400 MB,首次运行自动缓存到~/.cache/huggingface - 提供
POST /scan接口,返回实体类型、偏移、置信度 - 扩展在「AI 模式」下把待检文本先送本地 API,再决定是否阻断;引擎离线则自动降级到 Regex
3. 部署拓扑
用户粘贴 → 扩展拦截 → Regex 速检 → (可选) 本地 BERT → 阻断/放行
全链路走 127.0.0.1:8765,无需外网,不产生额外云费用,也规避了第三方隐私合规风险。
落地:三步上线
| 步骤 | 命令 | 备注 |
|---|---|---|
| ① 克隆 | git clone https://github.com/privacyshield-ai/privacy-firewall.git |
源码全开放,可供审计 |
| ② 起引擎 | cd src/engine && pip install -r requirements.txt && uvicorn main:app --port 8765 |
Python≥3.10,2 GB 内存即可 |
| ③ 装扩展 | Chrome「开发者模式」→ 加载已解压的 src/extension |
默认 Regex 已生效;AI 模式需引擎在线 |
完成后打开 ChatGPT,粘贴 AKIAxxxxxxxxxx 这类 AWS 密钥,页面会立即出现红色阻断层。整个流程延迟 <150 ms(Regex)或 <600 ms(BERT),对正常提问体验几乎无感。
调参与二次开发清单
| 参数 | 默认 | 建议 | 说明 |
|---|---|---|---|
CONFIDENCE_THRESHOLD |
0.75 | 0.85 | 提高可减少误报,代价是少量漏报 |
MASKING_MODE |
none |
replace / label |
阻断时把实体替换为 *** 或 [PERSON_1] |
MAX_TEXT_LEN |
4 096 | 8 192 | 长日志场景可适当放宽 |
FALLBACK_ON_ERROR |
true | true | 引擎异常时自动退回 Regex,保证可用性 |
项目同时暴露 POST /scan 与 GET /health,可被企业内部门户、IDE 插件或脚本直接调用,实现「可插拔 SDK」效果。例如在内部工单系统里,客服提交回复前自动扫描一次,若发现手机号即提示先脱敏再发单。
局限与缓解
- 语言:当前 BERT 模型以英语为主,中文人名 / 地名识别率约 10%–15% 下降。可替换
bert-base-chinese或bert-base-multilingual-cased,再微调 1–2 个 epoch 即可回升。 - 短昵称:「Tom」「Ann」这类三字符实体容易被 NER 当普通词。解决方式是加一条「上下文 + 职位」规则,如
Tom (engineer)才触发告警。 - 性能:首次加载模型需 3–4 秒、占用 1.1 GB 显存(CPU 亦可行)。对笔记本电池敏感场景,可把 AI 模式设为「手动触发」或「仅在工作时间启用」。
小结:把零信任做到「最后一米」
privacy-firewall 用「浏览器扩展 + 本地 Transformer」把传统 DLP 的盲区补上了:
- 零外发流量,天然通过 GDPR、PIPL 等合规审计;
- 开源 MIT,可自托管、可二次开发;
- 双模检测,既给安全团队「可用即开」的 Regex,也给算法团队「可调即训」的 BERT。
如果你所在企业已允许员工使用公有 AI 聊天,却担心密钥、客户号、源码片段被顺手贴出去,不妨把这套本地防火墙当成「零信任最后一米」的落地答案。先 Regex 全覆盖,再逐步引入本地大模型,用最轻量的成本把最不可控的输入出口管起来。
参考资料
[1] privacyshield-ai/privacy-firewall GitHub 仓库
[2] Shen et al., 2025, A survey on privacy risks and protection in large language models, Springer.