当我们谈论个人 AI 助手时,市面上存在两类主流方案:一类是以 Cloudflare Workers 为代表的边缘计算部署模式,另一类是以持久内存为核心概念的本地运行时。然而,OpenClaw 开辟了第三条路径 —— 真正的跨操作系统、跨平台个人助手架构,允许用户在任何设备上运行助手,同时保持 24/7 持续在线的能力。这种设计哲学被称为 "lobster way",强调本地优先、数据自主可控以及多环境无缝部署。
Gateway 架构:单一控制平面的设计逻辑
OpenClaw 的核心创新在于其 Gateway 架构。与传统的每个渠道独立运行机器人的做法不同,OpenClaw 将所有渠道、会话、工具和事件的管理集中在一个本地 WebSocket 服务上。这个服务默认监听 ws://127.0.0.1:18789,充当整个助手的神经中枢。所有客户端 —— 无论是 CLI 工具、macOS 菜单栏应用、iOS 或 Android 节点,还是 WebChat 界面 —— 都通过这个统一的 WebSocket 协议与 Gateway 通信。
这种设计带来了显著的优势。首先是配置的一致性,用户只需在 ~/.openclaw/openclaw.json 中定义一次模型偏好、渠道凭证和行为规则,所有连接到 Gateway 的客户端都会继承相同的配置。其次是状态的集中管理,会话历史、用户偏好、工具调用记录都存储在 Gateway 侧,客户端可以是无状态的薄端。最后是扩展的灵活性,新增一个消息渠道只需实现 Gateway 协议的客户端适配器,不需要重新部署整个助手。
Gateway 本身支持多种运行模式。最基础的是前台运行,执行 openclaw gateway --port 18789 --verbose 即可启动。对于需要长期运行的生产场景,OpenClaw 提供了守护进程安装功能:openclaw onboard --install-daemon 会在系统中注册一个用户级服务(macOS 使用 launchd,Linux 使用 systemd),确保 Gateway 在用户登录后自动启动并在后台持续运行。这个服务可以通过 openclaw doctor 命令进行健康检查和故障排查。
跨操作系统与跨消息平台的实现机制
OpenClaw 对操作系统的支持覆盖了主流桌面和移动平台。macOS 平台提供最完整的功能集,包括菜单栏控制应用、Voice Wake 语音唤醒、Talk Mode 语音对话、Canvas 可视化工作区,以及通过系统权限实现的本地命令执行和通知发送。Linux 平台同样得到良好支持,推荐通过 WSL2 在 Windows 上使用,以获得完整的工具链能力。iOS 和 Android 平台则以节点模式运行,通过 Bonjour 或 Tailscale 配对后,它们将设备本地的能力(相机、屏幕录制、地理位置)暴露给 Gateway 调用。
在消息渠道层面,OpenClaw 的覆盖范围令人印象深刻。它原生支持 WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams、Matrix、Zalo 以及 WebChat。这意味着用户可以在任何一个日常使用的通讯软件中与助手对话,而助手背后的逻辑、记忆和工具集是统一的。每个渠道都可以独立配置允许名单、群组策略和回复行为,例如设置为只响应提及或在特定群组中自动激活。
渠道配置通过环境变量或配置文件完成。以 Discord 为例,只需设置 DISCORD_BOT_TOKEN 或在配置文件中指定 channels.discord.token,Gateway 就会自动建立与 Discord API 的连接。对于需要更精细控制的场景,OpenClaw 提供了 channels.discord.dm.policy 用于配置私信策略 —— 默认的 "pairing" 模式会要求未知发送者输入配对码,只有通过管理员手动批准后才会将对话加入会话白名单。
24/7 持久化运行与远程访问策略
实现真正的 24/7 运行需要解决网络可达性的问题。OpenClaw 的设计原则是 Gateway 必须绑定到本地回环地址(127.0.0.1),这确保了服务的安全性,但同时也意味着外网无法直接访问。为了在保持安全的同时实现远程访问,OpenClaw 深度集成了 Tailscale,提供两种自动化暴露模式。
当 gateway.tailscale.mode 设置为 "serve" 时,Gateway 的 WebSocket 接口和 Web UI 会通过 Tailscale Serve 在 tailnet 内部提供 HTTPS 访问,所有流量通过 Tailscale 的加密通道传输。如果需要从公网访问,可以启用 "funnel" 模式,此时 Gateway 会在公网上暴露一个 HTTPS 端点。需要注意的是,Funnel 模式强制要求密码认证,必须设置 gateway.auth.mode: "password" 才能启动。这种设计确保了即使在公网暴露的情况下,未经授权的访问也被拒绝。
对于没有 Tailscale 环境或需要更精细控制的场景,OpenClaw 还支持 SSH 隧道方案。用户可以在远程服务器上运行 Gateway 本体,然后通过 SSH 隧道将本地端口映射到服务器。这种方式的优势在于完全依赖现有的 SSH 基础设施,不需要额外安装 Tailscale。远程 Gateway 的架构将执行工具和渠道连接放在服务器端,而设备节点(macOS/iOS/Android)仍然在本地执行需要设备权限的操作。
安全模型与隔离策略
OpenClaw 的安全模型建立在对「个人助手」场景的深刻理解之上。对于单人使用的主会话(main session),工具默认以主机权限运行,这意味着助手可以执行任意 bash 命令、访问文件系统、调用浏览器等。这种设计是合理的,因为用户完全信任自己的助手。但在群组或频道场景中,未经授权的陌生人可能发送消息,这就需要额外的安全层。
OpenClaw 提供了两种安全策略。第一种是 DM 配对机制(pairing policy),未知发送者会收到一个简短的配对码,只有当管理员通过 openclaw pairing approve <channel> <code> 命令批准后,该用户才会被加入本地允许名单。第二种是 Docker 沙箱隔离,通过设置 agents.defaults.sandbox.mode: "non-main",非主会话会在独立的 Docker 容器中运行,此时 bash 命令会进入容器而非主机环境。沙箱模式下,可以精细配置允许和拒绝的工具列表,例如允许 bash、read、write 但拒绝 browser、nodes、gateway。
macOS 平台还有一个特殊的权限系统 ——TCC(Transparency, Consent, and Control)。OpenClaw 的 macOS 应用在节点模式下运行时会暴露其权限映射,包括是否具有屏幕录制权限、通知权限、相机访问权限等。执行 system.run 等需要权限的操作时,Gateway 会检查对应的权限状态,如果缺失则返回 PERMISSION_MISSING 错误。对于需要提升权限的场景,系统支持 /elevated on|off 切换,但这一功能需要事先在配置中启用并加入允许名单。
模型配置与故障转移机制
OpenClaw 对模型提供商的支持覆盖了主流选择,包括 Anthropic(Claude Pro/Max)和 OpenAI(ChatGPT/Codex)。配置通过 ~/.openclaw/openclaw.json 完成,最简配置只需指定模型名称,例如设置 agent.model: "anthropic/claude-opus-4-5"。文档强烈推荐使用 Anthropic Pro/Max 订阅配合 Opus 4.5 模型,因为这一组合在长上下文处理和提示注入攻击抵抗方面表现最佳。
模型故障转移(failover)是生产环境中的关键能力。当主模型不可用时,OpenClaw 可以自动切换到备用模型。配置支持定义多个认证配置文件(auth profile),每个 profile 可以使用 OAuth 令牌或 API 密钥。系统会根据配置的优先级依次尝试,直到成功建立连接。这在处理速率限制或临时服务中断时尤为重要。
部署清单与关键配置参数
部署 OpenClaw 时有几个关键参数需要理解。首先是运行时要求,Gateway 必须在 Node 22 或更高版本上运行,推荐使用 pnpm 作为包管理器。其次是端口配置,默认 WebSocket 端口是 18789,可以通过 --port 参数修改,但如果使用 Tailscale Serve/Funnel,则必须保持 gateway.bind 为 loopback。再次是工作区路径,默认是 ~/.openclaw/workspace,其中包含注入给助手的提示文件(AGENTS.md、SOUL.md、TOOLS.md)以及技能目录。
对于计划在 Linux 服务器上运行 Gateway 的用户,以下是推荐的生产配置:确保使用 systemd 用户服务实现开机自启;配置 Tailscale Serve 或 SSH 隧道以实现远程访问;根据是否有多用户场景决定是否启用 Docker 沙箱;配置至少一个备用模型以实现故障转移;设置 openclaw doctor 定期运行以检测配置问题。
OpenClaw 代表了一种新型的个人 AI 助手架构理念 —— 不依赖云端服务,不将数据送给第三方,同时又能无缝嵌入用户已有的工作流程。这种设计在隐私敏感和自主可控需求日益增长的背景下,展现了重要的实践价值。
资料来源:OpenClaw GitHub 仓库(https://github.com/openclaw/openclaw)、OpenClaw 官方文档(https://docs.openclaw.ai/)