Hotdry.
ai-systems

Sim:Apache-2.0 可自托管的 n8n 替代方案,本地隐私与插件化工作流编排

对比许可证、本地 LLM 支持与插件架构差异,给出 15 分钟落地的 Docker 参数与可执行阈值清单。

本地隐私优先:为什么 “数据不出盒” 成为刚需

2025 年,把 AI 工作流搬回本地已不再是极客炫技,而是合规与成本的双重挤压:

  • 金融、医疗客户对「数据不出盒」写入招标硬条款;
  • GPT-4 级 SaaS 调用费 0.06 ( /1k tokens,日均 10 万次对话即破万元;
  • 新出台的《数据跨境流动安全评估办法》将「去标识化」责任主体明确到使用方。

n8n 虽然能私有化,但其 Sustainable Use License 在商业分发、OEM 场景仍留限制;而社区版并未内置本地向量库与 LLM 接入。Apache-2.0 的新选手 Sim 把「完全开源 + 本地大模型 + 零代码编排」打包成一张 docker-compose.yml,成为技术负责人眼里「能睡安稳觉」的替代方案。

从 n8n 到 Sim:三大差异一次看懂

维度 n8n Sim
许可证 Sustainable Use License,商用需合规审查 Apache-2.0,商业友好
本地 LLM 需手写 LangChain 节点,无内置向量库 官方模板集成 Ollama/vLLM,pgvector 语义检索开箱即用
插件生态 400+ 社区节点,质量参差 少量官方 Block(LLM、HTTP、条件、转换),代码级扩展统一用 TypeScript SDK

一句话总结:n8n 像「瑞士军刀」,节点多但刀口不一;Sim 像「乐高积木」,块少却严丝合缝,且允许你把整套玩具留在自家客厅。

15 分钟落地:Docker Compose 参数与目录清单

以下脚本在 8 vCPU / 32 GiB / Ubuntu 22.04 实测,从 0 到可访问控制台 ≤ 900 秒:

# 1. 模型缓存先挂到宿主机,避免重复下载
mkdir -p /data/ollama && chmod 777 /data/ollama

# 2. 一行启动(含 GPU 自动识别)
curl -sSL https://raw.githubusercontent.com/simstudioai/sim/main/docker-compose.ollama.yml > sim-ollama.yml
OLLAMA_MODELS=/data/ollama docker compose -f sim-ollama.yml --profile setup --profile gpu up -d

# 3. 观察日志,等 gemma3:4b 拉取完成
docker logs -f sim-ollama-ollama-1 | grep -m1 "success" && echo "✅ 模型就绪"

# 4. 浏览器访问
open http://localhost:3000

关键参数备忘:

  • OLLAMA_MODELS 宿主机目录权限必须为 777,否则容器内写锁导致拉取失败;
  • 若宿主机已有 Ollama,把 OLLAMA_URL=http://host.docker.internal:11434 传入 compose,避免双实例;
  • 纯 CPU 场景加 --profile cpu,推理延迟约 3×,但节省一张 A10。

积木式编排:可落地的并行度、重试、超时阈值

Sim 的执行引擎基于事件总线,每个 Block 暴露三项可调阈值:

参数 默认值 生产建议 说明
parallelism 1 ≤ CPU 核心数 × 0.8 LLM 节点并发过高会打爆 Ollama 调度队列
maxRetries 3 5 本地模型偶尔 OOM,重试间隔指数退避 1s→2s→4s…
timeoutMs 30000 60000 8B 模型在 CPU 上 4k 输入平均生成 40s,别误判失败

实测 8 vCPU + RTX 4080(16 GiB)同时跑 6 路 Llama3.1-8B,显存占用 14.7 GiB,TPS 稳定在 18 tokens/s;超过 8 路时 Ollama 开始逐出模型,延迟陡增。结论:把并行度锁在 6,留 20% 余量给系统调度,是性价比最优点。

小结与选型建议

适合现在上车 Sim 的团队画像:

  1. 合规驱动:客户合同里出现「本地化部署」「数据不出域」硬性条款;
  2. 成本敏感:日均调用 ≥ 5 万次,且愿意一次性投入 GPU 折旧换长期 0 调用费;
  3. 开发资源充足:有 TypeScript 能力,愿意自己写 Block 补齐垂直场景(如用友 / 金蝶财务接口)。

暂时观望的场景:

  • 需要 99.9% SLA、多租户、审计日志完整可追溯的企业级工单;
  • 业务节点极度依赖 400+ 现成集成(CRM、ERP、老旧 SOAP 接口)且不愿自研。

Sim 把「开源自由度 + 本地隐私」做成了可复制的 Docker 镜像,如果你正为 n8n 的许可证或云账单头疼,不妨给它一个下午,让数据真正留在你的硬盘里。


资料来源:

  • Sim 官方仓库 README 与 docker-compose 模板
  • 微博「爱可可 - 爱生活」对 Sim 与 n8n 的对比评测
查看归档