一、什么是「养龙虾」?

概念 养龙虾 = 7×24 运行 OpenClaw AI 助手

「养龙虾」是 OpenClaw 中文社区的俚语,指的是部署、配置并持续运行一个或多个 OpenClaw AI 助手实例的全过程。

这个叫法来源于 OpenClaw 项目的海洋甲壳类主题命名:

  • OpenClaw — "爪",龙虾/螃蟹的爪子
  • Lobster 扩展 — OpenClaw 核心运行时扩展,代号"龙虾",是 Agent 引擎的核心组件
  • Barnacle Bot — 项目的自动化机器人(藤壶)
  • Molt(蜕壳) — 旧版本名称 moltbot/moldbot,寓意版本升级如龙虾蜕壳

所以"养龙虾"就像字面意思 — 你在养一只智能龙虾:给它搭窝(服务器)、喂食(API Key + Token 额度)、让它工作(处理消息/自动化任务),然后日常照料(监控、维护、升级)。

组成 一只"龙虾"的核心组件

组件作用类比
Gateway控制平面,作为系统服务 7×24 运行龙虾的"壳" — 保护和支撑
Lobster 扩展核心 Agent 运行时引擎龙虾的"脑" — 思考和决策
Channels(渠道)连接飞书/Telegram/Discord/WhatsApp 等平台龙虾的"触角" — 感知外界
Skills(技能)搜索、文档、代码、浏览器等能力龙虾的"爪子" — 操作工具
Models(模型)Claude/GPT/Qwen/DeepSeek 等 AI 大脑龙虾的"食物" — 思考的燃料

特点 养龙虾 vs 直接用 ChatGPT/Claude

维度养龙虾(OpenClaw)直接用 ChatGPT/Claude
运行方式自部署,7×24 始终在线按需打开网页/App
交互渠道飞书/Telegram/Discord/WhatsApp 等 20+ 平台仅官方网页和 App
自动化Cron 定时任务、事件驱动、主动推送仅人工发起对话
数据控制数据完全在你的服务器上数据在云服务商
可定制性Skills/Plugins 高度可扩展有限的 GPTs/Projects
成本模式API 按量付费 + 服务器成本订阅制($20/月)
门槛需要一定技术基础零门槛

二、养龙虾用来干什么?

场景 1 团队 AI 助手 — 飞书/Slack/Discord 群聊 Bot

最常见的用法。在团队沟通工具中部署一个 AI 助手,团队成员可以随时 @机器人 提问、让它写代码、查资料、翻译文档等。

典型场景:技术团队在飞书群里 @AI助手 查 Bug、生成 SQL、review 代码;运营团队让它写文案、分析数据。

场景 2 个人 AI 管家 — 7×24 随时待命

通过 WhatsApp/Telegram/iMessage 连接,让 AI 助手成为你的私人管家。发消息就能让它帮你查天气、设提醒、搜索信息、管理日程。

典型场景:出门在外用手机给助手发消息"帮我查一下明天北京到上海的高铁",立即获得回复。

场景 3 自动化工作流 — 定时任务和事件驱动

利用 OpenClaw 的 Cron 功能和 Skills 技能,实现自动化工作流:

  • 每天早上 9 点自动汇总团队的 GitHub Issue 状态
  • 监控网站变化(博客更新、价格变动)并推送通知
  • 定时爬取信息源,生成摘要发送到群聊
  • 自动回复客户咨询(非工作时间值班)

场景 4 多模型路由 — 一个入口调用多个 AI

OpenClaw 支持同时配置多个 AI 模型(Claude、GPT、Qwen、DeepSeek、讯飞星火等),可以按场景自动路由或手动切换。相比分别订阅多个 AI 服务,养龙虾可以统一管理、按量付费。

"models": { "providers": { "anthropic": { ... }, // Claude "xunfei": { ... }, // 讯飞星火 "ds": { ... }, // DeepSeek "qwen-portal": { ... } // 通义千问 } }

场景 5 知识库问答 — 对接飞书文档/Wiki/云盘

通过飞书技能(feishu-doc/feishu-wiki/feishu-drive),让龙虾能读取你的飞书文档和知识库,基于内部资料回答问题。实现企业级 RAG(检索增强生成)。

场景 6 浏览器自动化 — 让龙虾上网干活

OpenClaw 支持浏览器集成(通过 CDP 协议连接 Chrome),可以让龙虾帮你浏览网页、填表、截图、爬取内容。配合 AI 模型的视觉能力,实现智能的网页自动化。

三、怎么养龙虾?(完整步骤)

步骤 1 准备服务器环境

最低配置:

资源最低要求推荐配置
CPU1 核2 核+
内存1 GB2 GB+
硬盘10 GB20 GB+
系统Linux / macOS / Windows WSL2Ubuntu 22.04+
Node.js>= 22最新 LTS
网络能访问外网稳定低延迟

可选方案:

  • 云服务器(推荐):阿里云/腾讯云/AWS 轻量服务器,月费 30-100 元
  • 家庭 NAS:群晖/威联通上用 Docker 运行
  • 本地电脑:自己的 Mac/Linux/Windows(WSL2),但需要常开
  • 树莓派:低功耗 7×24 运行,适合轻量场景

步骤 2 安装 OpenClaw

# 安装 Node.js 22+(推荐用 nvm)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash
nvm install 22

# 安装 OpenClaw
npm install -g openclaw@latest

# 运行引导向导
openclaw onboard --install-daemon
提示:--install-daemon 会自动注册系统服务(systemd/launchd),让龙虾开机自启、崩溃自动重启。

步骤 3 配置 AI 模型("喂食")

龙虾需要"食物" — AI 模型 API 来思考和回答。至少配置一个模型:

// ~/.openclaw/openclaw.json 中的 models 部分 "models": { "providers": { "anthropic": { "baseUrl": "https://api.anthropic.com/v1", "apiKey": "sk-ant-xxx...", "models": [{ "id": "claude-sonnet-4-6", "name": "Claude Sonnet", "contextWindow": 200000, "maxTokens": 8192 }] } } }

常见模型选择:

模型特点费用参考
Claude Sonnet 4.6性价比高,综合能力强$3/$15 per 1M tokens
Claude Opus 4.6最强推理能力$15/$75 per 1M tokens
DeepSeek V3国产,价格低约 ¥2/¥8 per 1M tokens
通义千问免费额度多,中文好有免费额度
讯飞星火中文对话好有免费额度
Ollama 本地模型完全免费,需要 GPU免费(电费+硬件)

步骤 4 接入渠道("伸出触角")

选择一个或多个沟通渠道让龙虾接收消息:

  • 飞书:安装 @openclaw/feishu 插件 → 配置 channels.feishu(详细教程
  • Telegram:创建 BotFather Bot → 配置 channels.telegram
  • Discord:创建 Discord Bot → 配置 channels.discord
  • WhatsApp:扫码配对 → 配置 channels.whatsapp
  • Slack:创建 Slack App → 配置 channels.slack
新手建议:先接一个渠道跑通,确认稳定后再接更多。飞书和 Telegram 是最简单的入门选择。

步骤 5 安装技能("装备爪子")

按需安装 Skills 让龙虾具备更多能力:

# 搜索能力
openclaw skill install brave-search

# 飞书文档读写
openclaw skill install feishu-doc
openclaw skill install feishu-wiki

# GitHub 集成
openclaw skill install github
openclaw skill install gh-issues

# 浏览器自动化(需要 Chrome)
# 在 openclaw.json 中配置 browser 部分即可

更多技能推荐请参考:OpenClaw Skills 大全

步骤 6 启动并验证

# 启动 Gateway
openclaw gateway start

# 检查状态
openclaw gateway status

# 查看日志
openclaw logs --tail 50

# 检查健康状态
openclaw doctor

看到各渠道连接成功的日志后,去对应平台给龙虾发条消息测试一下。

步骤 7 日常照料(长期维护)

  • 定期更新:openclaw update --channel stable(建议每 1-2 周)
  • 监控日志:openclaw logs --tail 100 检查错误
  • 检查额度:定期查看 AI 模型 API 的用量和余额
  • 备份配置:定期备份 ~/.openclaw/openclaw.json
  • 健康检查:openclaw doctor 自动诊断问题

四、养龙虾有什么风险?

风险总览

风险类别严重程度发生概率描述
API 费用失控AI 模型 API 按量计费,异常使用可能产生高额账单
API Key 泄露配置文件中包含敏感密钥,误提交到公开仓库
服务被滥用他人利用你的龙虾进行恶意操作(提示注入攻击)
数据泄露对话内容被第三方截取或 AI 模型记录
服务不稳定Gateway 崩溃、网络断线导致服务中断
模型幻觉AI 回答错误信息,团队成员误信
Token 耗尽模型上下文窗口满后对话质量下降
版本升级风险升级后配置不兼容或功能异常
合规风险企业环境中使用外部 AI 服务可能违反数据合规政策
资源占用服务器资源被龙虾占用过多

风险 1 API 费用失控 — 最常见也最肉疼的风险

AI 模型 API 按 Token 数量计费。如果龙虾在一个活跃的大群中 7×24 响应所有消息,每天可能消耗数百万 Token。

真实案例:某用户将 requireMention 设为 false 并在 500 人群中运行,一天产生 $200+ 的 API 费用。

费用估算:Claude Sonnet 4.6 价格约 $3/1M 输入 + $15/1M 输出。如果每天处理 1000 条消息,每条平均 2000 Token 输入 + 500 Token 输出,月费约 $200-$400。

风险 2 API Key / Secret 泄露

openclaw.json 中包含 AI 模型的 API Key、飞书 App Secret 等敏感信息。如果:

  • 不小心将配置文件提交到 GitHub 公开仓库
  • 服务器被入侵,配置文件被读取
  • 通过群聊截图或日志泄露

攻击者可以盗用你的 API Key 产生大额费用,或冒充你的飞书机器人发送消息。

风险 3 提示注入攻击(Prompt Injection)

恶意用户可能通过精心构造的消息来操纵龙虾的行为,例如:

  • 诱导龙虾泄露系统提示词或配置信息
  • 让龙虾执行危险的 Shell 命令
  • 绕过安全限制获取敏感数据
  • 利用龙虾向其他群聊发送垃圾消息

风险 4 模型幻觉和错误信息传播

AI 模型可能"一本正经地胡说八道",生成看似正确但实际错误的回答。在团队群聊中,如果同事不加验证地采信龙虾的回答,可能导致错误决策。特别是涉及代码建议、数据分析、法律/医学信息时风险更高。

五、怎么规避风险?

策略 1 控制费用 — 设预算、限频率、选对模型

# 1. 在 AI 服务商后台设置预算上限
#    Anthropic: Settings → Billing → Set monthly limit
#    OpenAI: Settings → Billing → Set hard limit

# 2. 群聊中设置需要 @才回复
"requireMention": true

# 3. 使用白名单限制响应的群
"groupPolicy": "allowlist"

# 4. 选择性价比高的模型
#    日常对话: DeepSeek V3 或 Qwen(成本低 10-50 倍)
#    复杂任务: Claude Sonnet(而非 Opus)

# 5. 限制模型输出长度
"maxTokens": 4096  // 而非 32768

策略 2 保护密钥 — 权限最小化

# 1. 设置配置文件权限
chmod 600 ~/.openclaw/openclaw.json

# 2. 绝对不要将配置提交到 Git
echo ".openclaw/" >> ~/.gitignore

# 3. 定期轮换 API Key
#    每 1-3 个月更换一次

# 4. Gateway 限制访问
"gateway": {
  "bind": "loopback",  // 只监听本地,不暴露到公网
  "auth": { "mode": "token", "token": "随机长字符串" }
}

# 5. 限制危险命令
"gateway": {
  "nodes": {
    "denyCommands": [
      "camera.snap", "sms.send", "contacts.add"
    ]
  }
}

策略 3 防范提示注入 — 使用强模型 + 限制权限

  • 使用最新一代强模型 — 新模型对提示注入的抵抗力更强
  • 限制 exec 工具 — 在 openclaw.json 中配置 exec-approvals.json 控制可执行的命令
  • 只开启必要的 Skills — 不用的技能设为 enabled: false
  • 设置 allowFrom — 限制只有信任的用户/群才能与龙虾交互
  • 定期审查日志 — 查看是否有异常的命令执行或对话模式

策略 4 保障稳定性 — 监控和自愈

# 1. 使用系统服务确保自动重启
openclaw gateway install  # 注册 systemd/launchd 服务

# 2. 设置日志轮转,防止磁盘撑满
# systemd 自带日志管理,Docker 可设:
docker run --log-opt max-size=50m --log-opt max-file=3 ...

# 3. 配置模型故障转移
# 在 models.providers 中配置多个提供商
# 主模型不可用时自动切换到备用模型

# 4. 定期健康检查
openclaw doctor

策略 5 降低幻觉风险 — 提醒用户验证

  • 在机器人描述中声明"AI 回答仅供参考,请自行验证"
  • 对于关键信息(法律/医疗/财务),提示用户咨询专业人士
  • 使用带推理能力的模型(如 Claude Opus)提高准确性
  • 开启搜索技能(brave-search),让龙虾能查证信息

100 个常见问题 — 目录概览

一、基础概念问题

#1 – #15:什么是养龙虾、适合谁、需要什么

二、搭建部署问题

#16 – #30:服务器选择、安装、配置

三、日常运行问题

#31 – #50:启动、崩溃、更新、监控

四、成本与计费问题

#51 – #65:API 费用、省钱技巧、免费方案

五、安全与合规问题

#66 – #80:密钥保护、提示注入、企业合规

六、进阶与优化问题

#81 – #100:多实例、高可用、性能调优等

一、基础概念问题(#1 – #15)

#1 "养龙虾"这个词是怎么来的?

OpenClaw(爪子)项目使用海洋甲壳类主题命名,核心扩展叫 Lobster(龙虾),旧版本叫 moltbot(蜕壳)。中文社区把"运行 OpenClaw 实例"比喻为"养龙虾"——搭窝、喂食(API Key)、让它干活、日常照料。

#2 养龙虾需要编程基础吗?

需要基本的命令行操作能力(会敲 npm install、编辑 JSON 文件、看日志)。不需要写代码。如果你能安装 Node.js 并编辑配置文件,就能养龙虾。

#3 养龙虾和用 ChatGPT Plus 有什么区别?

ChatGPT Plus 是打开浏览器/App 才能用;龙虾是 7×24 在你的飞书/Telegram 群里待命。龙虾可以主动推送、定时任务、多模型切换。但龙虾需要自己维护,ChatGPT Plus 开箱即用。

#4 养一只龙虾大概要花多少钱?

最低成本方案:云服务器 30-50 元/月 + DeepSeek API 约 10-30 元/月 = 每月 50-80 元。中端方案(Claude Sonnet + 多渠道)约 200-500 元/月。使用 Ollama 本地模型可以零 API 费用,但需要 GPU 显卡。

#5 可以完全免费养龙虾吗?

可以。本地电脑 + Ollama 本地模型 + Telegram Bot = 零费用(除了电费)。但本地模型效果不如云端大模型,且需要常开电脑。通义千问等国产模型也有免费额度可以利用。

#6 养龙虾合法吗?有没有法律风险?

养龙虾本身完全合法。但需注意:①遵守 AI 模型服务商的使用条款;②不使用龙虾生成违法内容;③企业环境中注意数据合规(如 GDPR);④不要用龙虾发垃圾消息或骚扰他人。

#7 一台服务器能养几只龙虾?

取决于配置。1 核 1G 服务器建议只养 1 只。2 核 4G 可以养 2-3 只(使用不同的配置文件和端口)。每只龙虾大约占用 200-500MB 内存。

#8 养龙虾需要固定公网 IP 吗?

不需要。飞书和 Telegram 渠道都支持 WebSocket 模式(由龙虾主动连接平台),不需要公网 IP。WhatsApp 渠道也是主动连接。只有使用 HTTP Webhook 回调模式时才需要公网地址。

#9 OpenClaw、Lobster、Gateway、Agent 之间的关系?

OpenClaw 是整个项目;Gateway 是后台运行的控制服务;Lobster 是核心 Agent 运行时扩展(处理消息→调用模型→返回回复的引擎);Agent 是具体的 AI 助手实例。Gateway 管理 Agent,Agent 基于 Lobster 引擎运行。

#10 养龙虾需要 GPU 吗?

如果使用云端 AI 模型(Claude/GPT/DeepSeek API),完全不需要 GPU。如果使用 Ollama 本地模型,需要显卡(至少 8GB 显存运行 7B 模型)。大多数人使用云端 API,不需要 GPU。

#11 龙虾能同时接多个渠道吗?

可以。一只龙虾可以同时连飞书 + Telegram + Discord + WhatsApp,它们共享同一个 AI 模型和 Skills。在 openclaw.json 的 channels 中配置多个即可。

#12 龙虾能记住之前的对话吗?

可以。OpenClaw 有会话管理机制,每个用户/群聊有独立的上下文。还支持 session-memory hook 持久化会话记忆。但上下文窗口有限,超长对话会被压缩(compaction)。

#13 龙虾能执行代码/Shell 命令吗?

可以,但有权限控制。OpenClaw 支持 exec 工具,可以执行 Shell 命令。通过 exec-approvals.jsongateway.nodes.denyCommands 来限制可执行的命令范围。生产环境务必严格限制。

#14 手机上能养龙虾吗?

不建议。龙虾需要 7×24 运行的环境,手机不适合。但你可以在云服务器上养龙虾,然后通过手机上的 Telegram/飞书/WhatsApp 随时与龙虾交互。

#15 什么情况下不适合养龙虾?

①只是偶尔用 AI 聊天 — 直接用 ChatGPT/Claude 更方便;②完全不懂命令行 — 学习成本较高;③对延迟极度敏感 — 经过多层转发的响应速度不如直连 AI;④预算极低 — 免费方案体验有限。

二、搭建部署问题(#16 – #30)

#16 推荐什么云服务器?

国内用户推荐腾讯云轻量应用服务器(2 核 2G 约 50 元/月)或阿里云 ECS。海外用户推荐 AWS Lightsail 或 Vultr($5-10/月)。选择离你和 AI API 服务商都近的区域。

#17 用 Docker 还是直接安装?

两种都可以。直接安装(npm install -g)更简单,适合单机部署。Docker 适合需要环境隔离、快速迁移、或在 NAS 上运行的场景。社区有非官方 Docker 镜像可用。

#18 树莓派能养龙虾吗?

可以。树莓派 4/5(4GB+ 内存)运行 OpenClaw Gateway 没问题。适合低功耗 7×24 运行的场景。但不建议在树莓派上跑本地模型(性能不够),配合云端 API 使用即可。

#19 Windows 可以养龙虾吗?

可以,但官方推荐使用 WSL2。在 WSL2 中安装和运行与 Linux 体验一致。原生 Windows 支持有限,可能遇到路径和权限问题。安装排错指南 中有详细的 Windows 问题解决方案。

#20 onboard 向导会做哪些配置?

openclaw onboard 会引导你完成:①创建配置目录 ~/.openclaw/;②配置 Gateway 端口和认证;③选择并配置 AI 模型;④选择并配置通信渠道;⑤安装系统服务(可选)。向导完成后可手动编辑 openclaw.json 调整。

#21 如何使用国内 AI 模型(DeepSeek/通义千问/星火)?

在 openclaw.json 的 models.providers 中添加对应配置。它们都兼容 OpenAI API 格式,设置 "api": "openai-completions" 和对应的 baseUrl 即可。参考本文「步骤 3」的配置示例。

#22 可以同时配置多个 AI 模型吗?

可以。在 models.providers 中配置多个,在 agents.defaults.model.primary 中设置默认模型。可以在对话中通过命令切换模型。也可以配置模型故障转移。

#23 使用中转 API(第三方代理)安全吗?

有风险。中转 API 意味着你的对话内容经过第三方服务器。风险包括:数据被记录、API Key 被盗用、服务不稳定。建议仅用于测试,生产环境使用官方 API 或可信的镜像服务。

#24 Ollama 本地模型怎么配置?

①先安装 Ollama 并下载模型(Ollama 教程);②在 openclaw.json 中添加:
"ollama": {
  "baseUrl": "http://localhost:11434/v1",
  "api": "openai-completions",
  "models": [{ "id": "qwen2.5:14b", "name": "Qwen 14B" }]
}

#25 配置文件改错了怎么恢复?

OpenClaw 自动创建备份文件 openclaw.json.bak(最多 4 份)。执行 cp ~/.openclaw/openclaw.json.bak ~/.openclaw/openclaw.json 恢复。建议首次配置好后手动备份一份到安全位置。

#26 多人共用一只龙虾怎么配置?

OpenClaw 本身是单用户设计(你的个人 AI 助手),但可以通过群聊渠道让团队共用。每个群成员在群聊中与龙虾交互。如需区分用户权限,使用 groupPolicy: "allowlist" 控制可访问的群。

#27 怎么给龙虾设置"人设"(System Prompt)?

通过 OpenClaw 的 Memory 和 Boot-MD 功能设置。在 ~/.openclaw/memory/ 目录下创建 Markdown 文件,写入系统提示词,龙虾会在每次对话开始时加载。也可以通过 hooks.internal.entries.boot-md 配置。

#28 安装插件报错 npm ERR 怎么办?

常见解决方案:①使用国内镜像 npm config set registry https://registry.npmmirror.com;②清缓存 npm cache clean --force;③确认 Node.js >= 22;④尝试用 pnpm 替代 npm。详见 安装排错指南

#29 Gateway 端口 18789 被占用怎么办?

在 openclaw.json 中修改 gateway.port 为其他端口(如 18790)。确保新端口未被占用:ss -tlnp | grep 18790。修改后重启 Gateway。

#30 如何设置开机自启动?

运行 openclaw gateway install 自动注册系统服务。Linux 使用 systemd(systemctl --user enable openclaw-gateway),macOS 使用 launchd。也可用 pm2:pm2 start openclaw -- gateway start

三、日常运行问题(#31 – #50)

#31 龙虾突然不回复消息了怎么办?

排查步骤:①openclaw gateway status 检查 Gateway 是否运行;②openclaw logs --tail 50 查看错误日志;③检查 AI 模型 API 余额是否用完;④检查网络是否能访问飞书/Telegram 服务器;⑤尝试 openclaw gateway restart

#32 Gateway 频繁崩溃重启

[gateway] Process crashed, restarting... (attempt 5)
原因:内存不足、配置错误、或插件冲突。
解决:①检查服务器内存(free -h);②查看崩溃前的日志定位问题;③尝试禁用最近安装的插件;④升级到最新版本;⑤如果是 OOM(内存溢出),增加服务器内存或减少 maxConcurrent

#33 如何查看龙虾的运行日志?

openclaw logs --tail 100 查看最近日志。日志文件位于 ~/.openclaw/logs/ 目录。如果用 systemd,也可以 journalctl --user -u openclaw-gateway -f 实时查看。

#34 龙虾回复很慢怎么优化?

①换更快的模型(Sonnet 比 Opus 快 3-5 倍);②减小 maxTokens(输出越短越快);③使用就近的 API 端点(国内用国内模型延迟更低);④检查服务器网络延迟;⑤减少同时处理的消息数(降低 maxConcurrent)。

#35 怎么更新 OpenClaw 版本?

openclaw update --channel stable 更新到最新稳定版。更新前建议备份配置:cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.pre-update。更新后运行 openclaw doctor 检查。

#36 更新后配置不兼容怎么办?

OpenClaw 有配置迁移机制,大多数升级自动兼容。如果遇到问题:①查看更新日志了解 breaking changes;②从备份恢复配置;③运行 openclaw doctor 自动修复;④去 GitHub Issues 或社区反馈。

#37 龙虾的对话记录存在哪里?

对话记录存在内存中(Gateway 运行期间)。启用 session-memory hook 后会持久化到磁盘(~/.openclaw/memory/)。启用 command-logger hook 后命令执行日志会记录到 ~/.openclaw/logs/

#38 怎么清除龙虾的对话记忆?

重启 Gateway 会清除内存中的会话。如需清除持久化记忆,删除 ~/.openclaw/memory/ 目录下的相关文件。也可以在对话中发送类似"忘记之前的对话"的指令。

#39 龙虾能同时处理多少条消息?

agents.defaults.maxConcurrent 控制,默认为 4。意味着最多同时处理 4 条消息,其余排队。子 Agent 的并发由 subagents.maxConcurrent 控制(默认 8)。可根据服务器性能调整。

#40 如何监控龙虾的健康状态?

openclaw gateway status 查看基本状态;②openclaw doctor 全面诊断;③查看 ~/.openclaw/logs/ 下的日志文件;④启用 diagnostics.cacheTrace 记录详细跟踪信息;⑤可配合外部监控工具(如 UptimeRobot)监控 Gateway HTTP 端口。

#41 龙虾的回复被飞书/Telegram 截断了

各平台有消息长度限制。OpenClaw 会自动分段发送。如果仍被截断:①更新渠道插件到最新版;②减小模型的 maxTokens 限制回复长度;③某些平台对分段有间隔限制,过快发送会被限流。

#42 怎么让龙虾定时执行任务(Cron)?

OpenClaw 支持内置 Cron 任务。在对话中使用 Cron 相关指令设置定时任务,或通过 Skills 实现。例如每天早上推送天气预报、每周汇总 Issue 等。Cron 任务在 Gateway 运行期间有效。

#43 重启服务器后龙虾没有自动启动

确认已注册系统服务:openclaw gateway install。Linux 上确认用户级 systemd 已启用:sudo loginctl enable-linger $USER。检查服务状态:systemctl --user status openclaw-gateway

#44 龙虾的磁盘占用越来越大

日志和缓存会累积。清理方案:①日志轮转(systemd 自动管理);②清理旧的去重缓存 ~/.openclaw/feishu/dedup/;③清理 ~/.openclaw/logs/ 中的旧日志;④清理 npm 缓存 npm cache clean --force

#45 龙虾的 CPU 占用异常高

①检查是否有死循环(机器人互相触发);②降低 maxConcurrent;③检查浏览器集成是否正常关闭无头 Chrome 进程;④用 tophtop 找到占用高的进程。

#46 网络断线后龙虾能自动重连吗?

可以。OpenClaw 各渠道(飞书/Telegram/Discord)都有自动重连机制。短暂断线后会自动恢复。长时间断线后也会持续重试。如果超过重试次数限制,重启 Gateway 即可。

#47 龙虾能跑在 Docker 中吗?

可以。社区有非官方 Dockerfile。关键配置:①挂载 ~/.openclaw 目录保持数据持久化;②使用 host 网络或确保 DNS 正常;③设置自动重启策略 --restart unless-stopped

#48 如何从旧版本(clawdbot/moltbot)迁移?

OpenClaw 有自动配置迁移机制。运行 openclaw doctor 会检测并迁移旧配置(clawdbot.json → openclaw.json)。如果自动迁移失败,手动复制旧配置并重命名即可。旧版名称的遗留配置会被自动跳过。

#49 龙虾支持热更新配置吗?

部分配置支持。模型配置和 Skills 的启用/禁用可能需要重启 Gateway 才生效。渠道配置(channels)修改后必须重启。建议修改配置后统一执行 openclaw gateway restart

#50 如何完全卸载龙虾?

# 1. 停止并卸载服务
openclaw gateway stop
openclaw gateway uninstall

# 2. 卸载全局包
npm uninstall -g openclaw

# 3. 删除配置和数据(谨慎!)
rm -rf ~/.openclaw

四、成本与计费问题(#51 – #65)

#51 API Token 是怎么计费的?

AI 模型按 Token 数量计费。1 个 Token 约等于 0.75 个英文单词或 0.5 个中文字符。费用 = 输入 Token 数 × 输入单价 + 输出 Token 数 × 输出单价。输出通常比输入贵 3-5 倍。

#52 怎么查看已经花了多少钱?

①在 AI 服务商后台查看用量(Anthropic Console / OpenAI Dashboard);②OpenClaw 日志中会记录每次调用的 Token 用量;③安装 model-usage Skill 可以在对话中查看统计;④在 openclaw.json 中配置 cost 字段跟踪成本。

#53 怎么设置费用上限避免超支?

①在 AI 服务商后台设置月度预算上限(最有效);②在 openclaw.json 中限制 maxTokens 控制单次输出量;③设 requireMention: true 减少不必要的触发;④使用白名单限制响应范围。

#54 最省钱的养龙虾方案是什么?

省钱排行:①Ollama 本地模型 = 零 API 费用(需要 GPU);②通义千问免费额度 + 国产小模型;③DeepSeek V3(约 Claude 的 1/20 价格);④讯飞星火(有免费额度);⑤Claude Haiku(最便宜的 Claude)。

#55 国内模型和海外模型怎么选?

国内模型优势:价格低、延迟低(不需要翻墙)、中文好。海外模型优势:英文好、综合能力强、生态丰富。建议:日常中文对话用国内模型,复杂推理和代码任务用 Claude/GPT。可以配置多个同时用。

#56 群聊中每条消息都消耗 Token 吗?

只有龙虾实际处理的消息才消耗 Token。如果设了 requireMention: true,只有 @机器人 的消息才会调用 AI 模型。但每次调用时会带上上下文(之前的对话),所以长对话的输入 Token 会逐渐增加。

#57 上下文窗口(Context Window)和费用的关系?

上下文越长,每次请求的输入 Token 越多,费用越高。OpenClaw 的 compaction(压缩)机制会在上下文过长时自动压缩历史对话,控制 Token 用量。设置合理的 contextWindow 和 compaction 策略很重要。

#58 缓存(Cache)能省钱吗?

可以。部分 AI 提供商(如 Anthropic)支持 Prompt Cache,重复的系统提示词部分只计费一次。在 openclaw.json 中设置 cacheReadcacheWrite 的成本参数。OpenClaw 的 diagnostics.cacheTrace 可以帮助分析缓存命中率。

#59 服务器费用一般多少?

最低配置(1 核 1G 轻量服务器):国内约 30-50 元/月,海外约 $3-5/月。推荐配置(2 核 2G):国内约 50-100 元/月。如果用家里的电脑/NAS,只需电费(约 10-30 元/月)。

#60 一天 100 条消息大概花多少钱?

粗略估算(假设每条平均 1500 Token 输入 + 500 Token 输出):Claude Sonnet 约 $0.5-1/天(¥3-7);DeepSeek V3 约 ¥0.3-0.5/天;通义千问免费额度内可能 ¥0。实际取决于对话长度和复杂度。

#61 怎么用免费额度养龙虾?

①通义千问 Portal 支持 OAuth 登录,有免费额度;②讯飞星火有免费 API 额度;③DeepSeek 新用户送额度;④Ollama 本地模型完全免费。在 openclaw.json 中配置成本为 0 即可:"cost": { "input": 0, "output": 0 }

#62 API 余额用完后龙虾会怎样?

AI 模型 API 会返回错误(通常是 402 或 429),龙虾无法正常回复。日志中会出现 "API rate limit reached" 或 "insufficient balance" 错误。配置模型故障转移可以自动切换到备用模型。

#63 怎么配置模型故障转移(Fallback)?

models.providers 中配置多个模型,OpenClaw 在主模型失败时会尝试备用模型。例如主用 Claude Sonnet,备用 DeepSeek V3。确保备用模型也配置了正确的 API Key。

#64 不同渠道的消息能用不同模型吗?

目前 OpenClaw 使用统一的 Agent 配置(agents.defaults.model.primary)。不同渠道默认使用相同模型。如需差异化,可以运行多个 OpenClaw 实例,每个实例配置不同模型和渠道。

#65 养龙虾的总成本怎么计算?

总月成本 = 服务器费用 + AI 模型 API 费用 + 其他 API 费用(如搜索 API)。入门级约 50-100 元/月,中端约 200-500 元/月,重度使用可能 1000+ 元/月。可以用低成本方案(国产模型 + 轻量服务器)控制在百元以内。

五、安全与合规问题(#66 – #80)

#66 API Key 怎么安全存储?

①设置文件权限 chmod 600 ~/.openclaw/openclaw.json;②不要将配置文件提交到 Git;③可使用环境变量注入敏感配置;④定期轮换 API Key(每 1-3 个月);⑤不在公开渠道分享配置截图。

#67 怎么防止提示注入攻击?

①使用最新一代强模型(抗注入能力更强);②限制 exec 工具权限;③只开启必要的 Skills;④使用 allowFrom 白名单;⑤定期审查日志中的异常行为;⑥不让龙虾访问生产数据库和关键基础设施。

#68 龙虾会泄露我的对话内容吗?

对话数据流经三个环节:①飞书/Telegram 平台(受平台隐私政策保护)→ ②你的服务器上的 OpenClaw(你控制)→ ③AI 模型 API(受模型服务商隐私政策约束)。选择信任的 AI 服务商,避免使用来路不明的中转 API。

#69 Gateway 需要暴露到公网吗?

不需要也不建议。Gateway 设置 "bind": "loopback" 只监听 localhost。渠道连接是龙虾主动向外连接(WebSocket),不需要公网入站端口。将 Gateway 暴露到公网会增加被攻击的风险。

#70 exec-approvals.json 怎么配置?

~/.openclaw/exec-approvals.json 控制 AI Agent 可以执行哪些 Shell 命令。建议只允许安全的只读命令(如 ls、cat、grep),禁止危险操作(如 rm、sudo)。生产环境务必严格配置。

#71 龙虾能访问我服务器上的所有文件吗?

取决于权限配置。龙虾运行在你的用户权限下,理论上可以访问该用户能访问的所有文件。建议:①创建专用低权限用户运行 OpenClaw;②使用 Docker 隔离;③通过 exec-approvals 限制文件访问。

#72 企业环境中养龙虾需要报备吗?

取决于企业的 IT 安全政策。如果将企业数据(代码/文档/客户信息)发送给外部 AI API,可能违反数据安全政策。建议:①与 IT 部门沟通并获得批准;②使用企业自有的 AI 服务(如 Azure OpenAI);③阅读并遵守 AI 服务商的数据处理协议。

#73 如何确保 GDPR/数据合规?

①选择在欧洲有服务节点的 AI 提供商;②不让龙虾处理个人身份信息(PII);③设置数据留存策略,定期清理对话日志;④在企业中使用时签署数据处理协议(DPA);⑤告知用户他们与 AI 的对话会被 AI 服务商处理。

#74 API Key 泄露后怎么紧急处理?

①立即在 AI 服务商后台重置/吊销泄露的 Key;②更新 openclaw.json 中的新 Key;③检查服务商后台是否有异常用量;④重启 Gateway;⑤如果飞书 AppSecret 也泄露,同时在飞书开放平台重置。

#75 龙虾的通信是加密的吗?

是的。①与飞书/Telegram 的 WebSocket 连接使用 WSS(TLS 加密);②与 AI 模型 API 的请求使用 HTTPS;③Gateway 本地通信在 localhost 上,不经过网络。整个链路都是加密的。

#76 有人通过龙虾攻击我的服务器怎么办?

①确保 Gateway 不暴露到公网;②限制 exec 权限;③使用低权限用户运行;④配置防火墙规则;⑤监控异常日志;⑥如果发现被攻击,立即停止 Gateway、更换所有密钥、审查服务器安全。

#77 浏览器自动化有安全风险吗?

有。龙虾控制浏览器可能被诱导访问恶意网站或提交敏感信息。建议:①使用独立的浏览器 Profile(OpenClaw 支持多 Profile 配置);②不在浏览器中保存密码;③设置 ssrfPolicy 限制内网访问;④只在需要时启用浏览器功能。

#78 龙虾能用来做坏事吗?需要注意什么?

和任何工具一样,龙虾可以被滥用。严禁使用龙虾:①发送垃圾消息或骚扰他人;②生成违法违规内容;③爬取受保护的数据;④绕过平台限制。遵守 AI 服务商和通信平台的使用条款。

#79 怎么限制龙虾只能做特定的事?

①通过 Memory/Boot-MD 设置系统提示词限制行为;②通过 Skills 的 enabled 控制可用能力;③通过 exec-approvals 限制命令执行;④通过 denyCommands 禁止危险操作;⑤通过 groupPolicy/dmPolicy 限制交互范围。

#80 OpenClaw 本身是开源的,安全可以信任吗?

OpenClaw 使用 MIT 开源协议,代码公开可审计。社区活跃(近 30 万 Stars),安全问题通常会被快速发现和修复。但任何软件都不能保证零漏洞。建议:①保持更新到最新版本;②关注 GitHub Security Advisories;③在生产环境中做好权限隔离。

六、进阶与优化问题(#81 – #100)

#81 怎么养多只龙虾(多实例)?

创建多个配置文件,使用不同的端口启动多个 Gateway:
OPENCLAW_CONFIG=~/.openclaw/config-a.json openclaw gateway start --port 18789
OPENCLAW_CONFIG=~/.openclaw/config-b.json openclaw gateway start --port 18790
每只龙虾可以连接不同的渠道和模型。

#82 怎么实现高可用(不停机)?

①使用 systemd 服务自动重启(崩溃后秒级恢复);②配置模型故障转移(主模型挂了自动切备用);③使用 Docker + Watchtower 自动更新;④监控 + 告警(Gateway 端口不通时发通知)。完全的主备热切换目前不支持。

#83 能用 Kubernetes 部署龙虾吗?

可以但不常见。OpenClaw 是单用户设计,K8s 的主要价值(水平扩展)对单实例意义不大。如果你管理多只龙虾(为团队/客户),K8s 可以简化多实例管理。需要自己编写 Deployment YAML。

#84 怎么自定义龙虾的回复风格?

~/.openclaw/memory/ 目录下创建 Markdown 文件,写入人设和回复风格说明。例如"你是一个友好的技术助手,回复简洁,使用中文,适当使用 emoji"。龙虾每次对话都会加载这些记忆。

#85 怎么开发自定义 Skill?

OpenClaw 支持自定义 Skills 开发。参考官方 Skill 模板,创建 Node.js 包并实现标准接口。可以用 skill-creator Skill 辅助创建。开发完成后 openclaw skill install ./my-skill 本地安装。

#86 龙虾能调用外部 API 吗?

可以,通过多种方式:①内置的 web-search 工具(Brave/Perplexity);②浏览器自动化直接访问网页;③自定义 Skill 调用任意 API;④通过 exec 工具运行 curl 命令(需权限控制)。

#87 怎么让龙虾接入微信?

微信没有官方 Bot API。社区方案包括:①通过 WeChat Web 协议(有封号风险);②通过 iPad/Mac 微信协议(灰色地带);③通过企业微信机器人(合规但功能有限)。建议使用飞书或 Telegram 等有正式 Bot API 的平台。

#88 龙虾能处理图片/语音/文件吗?

取决于渠道和模型。文本消息全渠道支持。图片处理需要模型支持多模态(如 Claude Vision、GPT-4V、Qwen Vision)。语音需要 TTS/STT Skill(如 openai-whisper)。文件处理通过 Skills 实现。

#89 怎么让龙虾访问内网资源?

龙虾运行在你的服务器上,天然能访问内网。可以让它查内网文档、调内部 API 等。但要注意安全:①限制访问范围(不要让 AI 触达敏感系统);②浏览器的 SSRF 策略默认会限制内网访问。

#90 compaction(上下文压缩)怎么工作?

当对话上下文接近模型的 contextWindow 限制时,OpenClaw 会自动压缩历史消息。compaction.mode 设为 "safeguard" 时,只在即将超限时触发。压缩后早期对话的细节可能丢失,但主要信息会保留。

#91 怎么查看龙虾处理消息的详细过程?

①启用 diagnostics.cacheTrace 记录完整的请求/响应;②设 includeMessages/includePrompt/includeSystem: true 记录详细内容;③日志文件在 ~/.openclaw/logs/cache-trace.jsonl。注意:开启详细日志会增加磁盘占用。

#92 龙虾能和其他工具/平台集成吗?

可以。通过 Skills 生态可以接入:GitHub(Issues/PR)、Notion、Trello、Obsidian、Spotify、1Password 等。也可以通过自定义 Skill 接入任何有 API 的服务。参考 Skills 大全

#93 Tailscale 集成是干什么的?

OpenClaw 支持 Tailscale VPN 集成(gateway.tailscale 配置)。用途:①安全地远程访问你的 Gateway;②让多台设备通过 Tailscale 网络访问同一只龙虾;③不暴露公网端口的情况下远程管理。默认关闭。

#94 怎么备份和恢复龙虾的全部配置?

备份整个 ~/.openclaw/ 目录即可。关键文件:openclaw.json(配置)、memory/(记忆)、extensions/(插件)。恢复时复制回来并重启 Gateway。建议定期 rsync 到其他位置。

#95 龙虾能学习/记住特定知识吗?

通过 Memory 系统可以。将知识写入 ~/.openclaw/memory/ 下的 Markdown 文件,龙虾会在对话中参考。但这不是"训练",只是在上下文中注入知识。对于大量文档,建议使用飞书 Wiki/文档 Skill 做 RAG。

#96 怎么迁移龙虾到另一台服务器?

①在新服务器上安装 Node.js 和 OpenClaw;②将旧服务器的 ~/.openclaw/ 整个目录复制到新服务器;③在新服务器上 openclaw gateway start;④停止旧服务器的 Gateway。注意更新可能需要修改的路径配置。

#97 多只龙虾之间能互相通信吗?

目前没有原生支持。但可以通过外部机制实现:①让两只龙虾在同一个群聊中(但要注意互相触发问题);②通过共享文件/数据库交换信息;③通过自定义 Skill 调用另一只龙虾的 Gateway API。

#98 OpenClaw 的更新频率是怎样的?

OpenClaw 更新非常活跃。stable 频道大约每 1-2 周发布新版,beta 频道更频繁。建议使用 stable 频道,定期更新以获得安全修复和新功能。关注 GitHub Releases 了解更新内容。

#99 养龙虾的中文社区在哪里?

推荐加入:①GitHub Discussions(官方讨论区);②Discord 中文频道;③Telegram 中文群;④微信交流群。详细列表请参考 OpenClaw 中文交流社区汇总

#100 养龙虾的完整检查清单

搭建阶段:
  ✅ 服务器就绪(Linux/macOS/WSL2,Node.js >= 22)
  ✅ OpenClaw 安装完成(openclaw --version)
  ✅ 至少一个 AI 模型配置好(models.providers)
  ✅ 至少一个渠道接入(channels.feishu/telegram/...)
  ✅ Gateway 注册为系统服务(自动重启)

安全配置:
  ✅ openclaw.json 文件权限 600
  ✅ Gateway bind 设为 loopback
  ✅ exec-approvals 限制命令范围
  ✅ denyCommands 禁止危险操作
  ✅ AI 服务商设置了费用上限

日常维护:
  ✅ 定期检查日志(openclaw logs)
  ✅ 定期更新版本(openclaw update)
  ✅ 定期检查 API 余额
  ✅ 定期备份配置(~/.openclaw/)
  ✅ 定期运行诊断(openclaw doctor)