「养龙虾」是 OpenClaw 中文社区的俚语,指的是部署、配置并持续运行一个或多个 OpenClaw AI 助手实例的全过程。
这个叫法来源于 OpenClaw 项目的海洋甲壳类主题命名:
所以"养龙虾"就像字面意思 — 你在养一只智能龙虾:给它搭窝(服务器)、喂食(API Key + Token 额度)、让它工作(处理消息/自动化任务),然后日常照料(监控、维护、升级)。
| 组件 | 作用 | 类比 |
|---|---|---|
| Gateway | 控制平面,作为系统服务 7×24 运行 | 龙虾的"壳" — 保护和支撑 |
| Lobster 扩展 | 核心 Agent 运行时引擎 | 龙虾的"脑" — 思考和决策 |
| Channels(渠道) | 连接飞书/Telegram/Discord/WhatsApp 等平台 | 龙虾的"触角" — 感知外界 |
| Skills(技能) | 搜索、文档、代码、浏览器等能力 | 龙虾的"爪子" — 操作工具 |
| Models(模型) | Claude/GPT/Qwen/DeepSeek 等 AI 大脑 | 龙虾的"食物" — 思考的燃料 |
| 维度 | 养龙虾(OpenClaw) | 直接用 ChatGPT/Claude |
|---|---|---|
| 运行方式 | 自部署,7×24 始终在线 | 按需打开网页/App |
| 交互渠道 | 飞书/Telegram/Discord/WhatsApp 等 20+ 平台 | 仅官方网页和 App |
| 自动化 | Cron 定时任务、事件驱动、主动推送 | 仅人工发起对话 |
| 数据控制 | 数据完全在你的服务器上 | 数据在云服务商 |
| 可定制性 | Skills/Plugins 高度可扩展 | 有限的 GPTs/Projects |
| 成本模式 | API 按量付费 + 服务器成本 | 订阅制($20/月) |
| 门槛 | 需要一定技术基础 | 零门槛 |
最常见的用法。在团队沟通工具中部署一个 AI 助手,团队成员可以随时 @机器人 提问、让它写代码、查资料、翻译文档等。
典型场景:技术团队在飞书群里 @AI助手 查 Bug、生成 SQL、review 代码;运营团队让它写文案、分析数据。
通过 WhatsApp/Telegram/iMessage 连接,让 AI 助手成为你的私人管家。发消息就能让它帮你查天气、设提醒、搜索信息、管理日程。
典型场景:出门在外用手机给助手发消息"帮我查一下明天北京到上海的高铁",立即获得回复。
利用 OpenClaw 的 Cron 功能和 Skills 技能,实现自动化工作流:
OpenClaw 支持同时配置多个 AI 模型(Claude、GPT、Qwen、DeepSeek、讯飞星火等),可以按场景自动路由或手动切换。相比分别订阅多个 AI 服务,养龙虾可以统一管理、按量付费。
通过飞书技能(feishu-doc/feishu-wiki/feishu-drive),让龙虾能读取你的飞书文档和知识库,基于内部资料回答问题。实现企业级 RAG(检索增强生成)。
OpenClaw 支持浏览器集成(通过 CDP 协议连接 Chrome),可以让龙虾帮你浏览网页、填表、截图、爬取内容。配合 AI 模型的视觉能力,实现智能的网页自动化。
最低配置:
| 资源 | 最低要求 | 推荐配置 |
|---|---|---|
| CPU | 1 核 | 2 核+ |
| 内存 | 1 GB | 2 GB+ |
| 硬盘 | 10 GB | 20 GB+ |
| 系统 | Linux / macOS / Windows WSL2 | Ubuntu 22.04+ |
| Node.js | >= 22 | 最新 LTS |
| 网络 | 能访问外网 | 稳定低延迟 |
可选方案:
# 安装 Node.js 22+(推荐用 nvm) curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash nvm install 22 # 安装 OpenClaw npm install -g openclaw@latest # 运行引导向导 openclaw onboard --install-daemon
--install-daemon 会自动注册系统服务(systemd/launchd),让龙虾开机自启、崩溃自动重启。
龙虾需要"食物" — AI 模型 API 来思考和回答。至少配置一个模型:
常见模型选择:
| 模型 | 特点 | 费用参考 |
|---|---|---|
| Claude Sonnet 4.6 | 性价比高,综合能力强 | $3/$15 per 1M tokens |
| Claude Opus 4.6 | 最强推理能力 | $15/$75 per 1M tokens |
| DeepSeek V3 | 国产,价格低 | 约 ¥2/¥8 per 1M tokens |
| 通义千问 | 免费额度多,中文好 | 有免费额度 |
| 讯飞星火 | 中文对话好 | 有免费额度 |
| Ollama 本地模型 | 完全免费,需要 GPU | 免费(电费+硬件) |
选择一个或多个沟通渠道让龙虾接收消息:
按需安装 Skills 让龙虾具备更多能力:
# 搜索能力 openclaw skill install brave-search # 飞书文档读写 openclaw skill install feishu-doc openclaw skill install feishu-wiki # GitHub 集成 openclaw skill install github openclaw skill install gh-issues # 浏览器自动化(需要 Chrome) # 在 openclaw.json 中配置 browser 部分即可
更多技能推荐请参考:OpenClaw Skills 大全
# 启动 Gateway openclaw gateway start # 检查状态 openclaw gateway status # 查看日志 openclaw logs --tail 50 # 检查健康状态 openclaw doctor
看到各渠道连接成功的日志后,去对应平台给龙虾发条消息测试一下。
openclaw update --channel stable(建议每 1-2 周)openclaw logs --tail 100 检查错误~/.openclaw/openclaw.jsonopenclaw doctor 自动诊断问题| 风险类别 | 严重程度 | 发生概率 | 描述 |
|---|---|---|---|
| API 费用失控 | 高 | 中 | AI 模型 API 按量计费,异常使用可能产生高额账单 |
| API Key 泄露 | 高 | 中 | 配置文件中包含敏感密钥,误提交到公开仓库 |
| 服务被滥用 | 高 | 中 | 他人利用你的龙虾进行恶意操作(提示注入攻击) |
| 数据泄露 | 高 | 低 | 对话内容被第三方截取或 AI 模型记录 |
| 服务不稳定 | 中 | 中 | Gateway 崩溃、网络断线导致服务中断 |
| 模型幻觉 | 中 | 高 | AI 回答错误信息,团队成员误信 |
| Token 耗尽 | 中 | 中 | 模型上下文窗口满后对话质量下降 |
| 版本升级风险 | 低 | 中 | 升级后配置不兼容或功能异常 |
| 合规风险 | 中 | 低 | 企业环境中使用外部 AI 服务可能违反数据合规政策 |
| 资源占用 | 低 | 低 | 服务器资源被龙虾占用过多 |
AI 模型 API 按 Token 数量计费。如果龙虾在一个活跃的大群中 7×24 响应所有消息,每天可能消耗数百万 Token。
真实案例:某用户将 requireMention 设为 false 并在 500 人群中运行,一天产生 $200+ 的 API 费用。
openclaw.json 中包含 AI 模型的 API Key、飞书 App Secret 等敏感信息。如果:
攻击者可以盗用你的 API Key 产生大额费用,或冒充你的飞书机器人发送消息。
恶意用户可能通过精心构造的消息来操纵龙虾的行为,例如:
AI 模型可能"一本正经地胡说八道",生成看似正确但实际错误的回答。在团队群聊中,如果同事不加验证地采信龙虾的回答,可能导致错误决策。特别是涉及代码建议、数据分析、法律/医学信息时风险更高。
# 1. 在 AI 服务商后台设置预算上限 # Anthropic: Settings → Billing → Set monthly limit # OpenAI: Settings → Billing → Set hard limit # 2. 群聊中设置需要 @才回复 "requireMention": true # 3. 使用白名单限制响应的群 "groupPolicy": "allowlist" # 4. 选择性价比高的模型 # 日常对话: DeepSeek V3 或 Qwen(成本低 10-50 倍) # 复杂任务: Claude Sonnet(而非 Opus) # 5. 限制模型输出长度 "maxTokens": 4096 // 而非 32768
# 1. 设置配置文件权限
chmod 600 ~/.openclaw/openclaw.json
# 2. 绝对不要将配置提交到 Git
echo ".openclaw/" >> ~/.gitignore
# 3. 定期轮换 API Key
# 每 1-3 个月更换一次
# 4. Gateway 限制访问
"gateway": {
"bind": "loopback", // 只监听本地,不暴露到公网
"auth": { "mode": "token", "token": "随机长字符串" }
}
# 5. 限制危险命令
"gateway": {
"nodes": {
"denyCommands": [
"camera.snap", "sms.send", "contacts.add"
]
}
}
exec-approvals.json 控制可执行的命令enabled: false# 1. 使用系统服务确保自动重启 openclaw gateway install # 注册 systemd/launchd 服务 # 2. 设置日志轮转,防止磁盘撑满 # systemd 自带日志管理,Docker 可设: docker run --log-opt max-size=50m --log-opt max-file=3 ... # 3. 配置模型故障转移 # 在 models.providers 中配置多个提供商 # 主模型不可用时自动切换到备用模型 # 4. 定期健康检查 openclaw doctor
npm install、编辑 JSON 文件、看日志)。不需要写代码。如果你能安装 Node.js 并编辑配置文件,就能养龙虾。channels 中配置多个即可。exec-approvals.json 和 gateway.nodes.denyCommands 来限制可执行的命令范围。生产环境务必严格限制。openclaw onboard 会引导你完成:①创建配置目录 ~/.openclaw/;②配置 Gateway 端口和认证;③选择并配置 AI 模型;④选择并配置通信渠道;⑤安装系统服务(可选)。向导完成后可手动编辑 openclaw.json 调整。models.providers 中添加对应配置。它们都兼容 OpenAI API 格式,设置 "api": "openai-completions" 和对应的 baseUrl 即可。参考本文「步骤 3」的配置示例。models.providers 中配置多个,在 agents.defaults.model.primary 中设置默认模型。可以在对话中通过命令切换模型。也可以配置模型故障转移。"ollama": {
"baseUrl": "http://localhost:11434/v1",
"api": "openai-completions",
"models": [{ "id": "qwen2.5:14b", "name": "Qwen 14B" }]
}
openclaw.json.bak(最多 4 份)。执行 cp ~/.openclaw/openclaw.json.bak ~/.openclaw/openclaw.json 恢复。建议首次配置好后手动备份一份到安全位置。groupPolicy: "allowlist" 控制可访问的群。~/.openclaw/memory/ 目录下创建 Markdown 文件,写入系统提示词,龙虾会在每次对话开始时加载。也可以通过 hooks.internal.entries.boot-md 配置。npm config set registry https://registry.npmmirror.com;②清缓存 npm cache clean --force;③确认 Node.js >= 22;④尝试用 pnpm 替代 npm。详见 安装排错指南。gateway.port 为其他端口(如 18790)。确保新端口未被占用:ss -tlnp | grep 18790。修改后重启 Gateway。openclaw gateway install 自动注册系统服务。Linux 使用 systemd(systemctl --user enable openclaw-gateway),macOS 使用 launchd。也可用 pm2:pm2 start openclaw -- gateway start。openclaw gateway status 检查 Gateway 是否运行;②openclaw logs --tail 50 查看错误日志;③检查 AI 模型 API 余额是否用完;④检查网络是否能访问飞书/Telegram 服务器;⑤尝试 openclaw gateway restart。free -h);②查看崩溃前的日志定位问题;③尝试禁用最近安装的插件;④升级到最新版本;⑤如果是 OOM(内存溢出),增加服务器内存或减少 maxConcurrent。
openclaw logs --tail 100 查看最近日志。日志文件位于 ~/.openclaw/logs/ 目录。如果用 systemd,也可以 journalctl --user -u openclaw-gateway -f 实时查看。maxTokens(输出越短越快);③使用就近的 API 端点(国内用国内模型延迟更低);④检查服务器网络延迟;⑤减少同时处理的消息数(降低 maxConcurrent)。openclaw update --channel stable 更新到最新稳定版。更新前建议备份配置:cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.pre-update。更新后运行 openclaw doctor 检查。openclaw doctor 自动修复;④去 GitHub Issues 或社区反馈。session-memory hook 后会持久化到磁盘(~/.openclaw/memory/)。启用 command-logger hook 后命令执行日志会记录到 ~/.openclaw/logs/。~/.openclaw/memory/ 目录下的相关文件。也可以在对话中发送类似"忘记之前的对话"的指令。agents.defaults.maxConcurrent 控制,默认为 4。意味着最多同时处理 4 条消息,其余排队。子 Agent 的并发由 subagents.maxConcurrent 控制(默认 8)。可根据服务器性能调整。openclaw gateway status 查看基本状态;②openclaw doctor 全面诊断;③查看 ~/.openclaw/logs/ 下的日志文件;④启用 diagnostics.cacheTrace 记录详细跟踪信息;⑤可配合外部监控工具(如 UptimeRobot)监控 Gateway HTTP 端口。maxTokens 限制回复长度;③某些平台对分段有间隔限制,过快发送会被限流。openclaw gateway install。Linux 上确认用户级 systemd 已启用:sudo loginctl enable-linger $USER。检查服务状态:systemctl --user status openclaw-gateway。~/.openclaw/feishu/dedup/;③清理 ~/.openclaw/logs/ 中的旧日志;④清理 npm 缓存 npm cache clean --force。maxConcurrent;③检查浏览器集成是否正常关闭无头 Chrome 进程;④用 top 或 htop 找到占用高的进程。~/.openclaw 目录保持数据持久化;②使用 host 网络或确保 DNS 正常;③设置自动重启策略 --restart unless-stopped。openclaw doctor 会检测并迁移旧配置(clawdbot.json → openclaw.json)。如果自动迁移失败,手动复制旧配置并重命名即可。旧版名称的遗留配置会被自动跳过。openclaw gateway restart。# 1. 停止并卸载服务 openclaw gateway stop openclaw gateway uninstall # 2. 卸载全局包 npm uninstall -g openclaw # 3. 删除配置和数据(谨慎!) rm -rf ~/.openclaw
cost 字段跟踪成本。maxTokens 控制单次输出量;③设 requireMention: true 减少不必要的触发;④使用白名单限制响应范围。requireMention: true,只有 @机器人 的消息才会调用 AI 模型。但每次调用时会带上上下文(之前的对话),所以长对话的输入 Token 会逐渐增加。contextWindow 和 compaction 策略很重要。cacheRead 和 cacheWrite 的成本参数。OpenClaw 的 diagnostics.cacheTrace 可以帮助分析缓存命中率。"cost": { "input": 0, "output": 0 }。models.providers 中配置多个模型,OpenClaw 在主模型失败时会尝试备用模型。例如主用 Claude Sonnet,备用 DeepSeek V3。确保备用模型也配置了正确的 API Key。agents.defaults.model.primary)。不同渠道默认使用相同模型。如需差异化,可以运行多个 OpenClaw 实例,每个实例配置不同模型和渠道。chmod 600 ~/.openclaw/openclaw.json;②不要将配置文件提交到 Git;③可使用环境变量注入敏感配置;④定期轮换 API Key(每 1-3 个月);⑤不在公开渠道分享配置截图。allowFrom 白名单;⑤定期审查日志中的异常行为;⑥不让龙虾访问生产数据库和关键基础设施。"bind": "loopback" 只监听 localhost。渠道连接是龙虾主动向外连接(WebSocket),不需要公网入站端口。将 Gateway 暴露到公网会增加被攻击的风险。~/.openclaw/exec-approvals.json 控制 AI Agent 可以执行哪些 Shell 命令。建议只允许安全的只读命令(如 ls、cat、grep),禁止危险操作(如 rm、sudo)。生产环境务必严格配置。ssrfPolicy 限制内网访问;④只在需要时启用浏览器功能。OPENCLAW_CONFIG=~/.openclaw/config-a.json openclaw gateway start --port 18789 OPENCLAW_CONFIG=~/.openclaw/config-b.json openclaw gateway start --port 18790每只龙虾可以连接不同的渠道和模型。
~/.openclaw/memory/ 目录下创建 Markdown 文件,写入人设和回复风格说明。例如"你是一个友好的技术助手,回复简洁,使用中文,适当使用 emoji"。龙虾每次对话都会加载这些记忆。skill-creator Skill 辅助创建。开发完成后 openclaw skill install ./my-skill 本地安装。compaction.mode 设为 "safeguard" 时,只在即将超限时触发。压缩后早期对话的细节可能丢失,但主要信息会保留。diagnostics.cacheTrace 记录完整的请求/响应;②设 includeMessages/includePrompt/includeSystem: true 记录详细内容;③日志文件在 ~/.openclaw/logs/cache-trace.jsonl。注意:开启详细日志会增加磁盘占用。gateway.tailscale 配置)。用途:①安全地远程访问你的 Gateway;②让多台设备通过 Tailscale 网络访问同一只龙虾;③不暴露公网端口的情况下远程管理。默认关闭。~/.openclaw/ 目录即可。关键文件:openclaw.json(配置)、memory/(记忆)、extensions/(插件)。恢复时复制回来并重启 Gateway。建议定期 rsync 到其他位置。~/.openclaw/memory/ 下的 Markdown 文件,龙虾会在对话中参考。但这不是"训练",只是在上下文中注入知识。对于大量文档,建议使用飞书 Wiki/文档 Skill 做 RAG。~/.openclaw/ 整个目录复制到新服务器;③在新服务器上 openclaw gateway start;④停止旧服务器的 Gateway。注意更新可能需要修改的路径配置。搭建阶段: ✅ 服务器就绪(Linux/macOS/WSL2,Node.js >= 22) ✅ OpenClaw 安装完成(openclaw --version) ✅ 至少一个 AI 模型配置好(models.providers) ✅ 至少一个渠道接入(channels.feishu/telegram/...) ✅ Gateway 注册为系统服务(自动重启) 安全配置: ✅ openclaw.json 文件权限 600 ✅ Gateway bind 设为 loopback ✅ exec-approvals 限制命令范围 ✅ denyCommands 禁止危险操作 ✅ AI 服务商设置了费用上限 日常维护: ✅ 定期检查日志(openclaw logs) ✅ 定期更新版本(openclaw update) ✅ 定期检查 API 余额 ✅ 定期备份配置(~/.openclaw/) ✅ 定期运行诊断(openclaw doctor)