返回文章列表

从零开始装 OpenClaw,我踩了三个坑

8 分钟
OpenClaw实践经验

从零开始装 OpenClaw,我踩了三个坑

上篇说了为什么要折腾 OpenClaw,这篇说说怎么装、装的过程里踩了哪些坑。

先说结论:整个安装过程不算难,但有几个地方很容易卡住,而且文档里基本不会告诉你。

我把这些坑都记下来了,希望你能少走一点弯路。


先说说我的折腾路径

我是分两个阶段装的。

第一阶段是春节期间在阿里云 VPS 上装,主要是为了探索边界,不想一上来就在自己的主力机上乱搞。

第二阶段是回家之后,在 Mac mini 上重新装了一遍,这次才算是真正跑通了完整流程。

两次安装,踩的坑不太一样,但都有收获。


安装本身不难

通过 NPM 安装,一行命令的事。

但有一点要有心理准备:安装过程可能要等将近十分钟。我第一次装的时候,等了很久没动静,以为出问题了,差点强制退出。

其实是在下载依赖,网速慢的话就是要等。

等完之后,会进入一个引导配置界面(onboard),主要让你做两件事:

  1. 配置底层模型(也就是 AI 的「大脑」用哪个)
  2. 选择接入哪个聊天渠道(Telegram、WhatsApp 等)

这两步做完,基本的框架就搭好了。


TUI 配置:比想象中友好

装完之后,会进入 TUI(终端交互界面)做进一步配置。

这一步我原本以为会很复杂,实际上挺清晰的,主要问你几个问题:

  • 你希望它怎么称呼你?
  • 你想给它起什么名字?
  • 它的行事风格是什么样的?需不需要主动回复你?
  • 要安装哪些 Skill?

最后一个要注意一下。它会列出很多常用 Skill 让你选,一键安装很方便。但很多 Skill 是需要你提供对应 API 的,比如 Google 的 API。如果你没有,装了也用不了,先跳过就好。


坑一:模型选了但连不上

这是我在 Mac mini 上装的时候踩的第一个坑。

在 onboard 配置底层模型时,我选了一个看起来可用的模型。但进入 TUI 之后,发现连接一直不通,卡在那里动不了。

后来才搞清楚原因:模型供应商列表里有这个模型,但实际上当前版本的 OpenClaw 并不支持它。

解决方法是强制退出,然后重新跑

openclaw onboard
命令,换一个确认可用的模型重新配置。

教训:onboard 阶段选模型,优先选官方文档里明确标注支持的,不要贪新。


坑二:JSON 配置文件里的占位符

这个坑有点隐蔽,但杀伤力挺大。

OpenClaw 的核心配置都在

openclaw.json
这个文件里,包括安全权限、工具白名单、Gateway Token 等等。

我在配置权限的时候,让 Claude Code 帮我生成了一段配置,然后直接粘贴进去了。

结果整个 TUI 直接失效,Gateway 启动失败,什么都进不去了。

排查了半天才发现:Claude Code 生成的配置里,Token 和 API Key 都是占位符,比如

YOUR_TOKEN_HERE
这种。我没注意,直接粘进去了,Gateway 拿着一个假 Token 当然起不来。

教训有两条:

  1. 粘贴任何配置之前,先检查有没有占位符,把真实的 Key 填进去再粘。
  2. 每个 Gateway 都有自己的 Token,这个 Token 非常重要,建议单独记下来,每次改配置文件之前先备份一份。

坑三:Telegram 群聊里机器人不回复

这个坑折腾了我挺长时间。

我希望在 Telegram 群里,机器人能主动回复消息,不只是被 @ 才响应。配置里有一个

requireMention
的选项,我以为关掉就行了。

但关掉之后,机器人还是不动。

后来才发现,还需要在 Telegram 那边,把机器人的「群组隐私模式」(Group Privacy Mode)关掉。这个设置在 BotFather 里,默认是开启的,开启状态下机器人收不到群里的普通消息。

两边都要配,缺一不可。


一个让整件事变简单的方法

说完坑,说一个让整个折腾过程变顺的方法。

用 Claude Code 来管理 OpenClaw 的配置。

OpenClaw 的配置文件有很多参数,键值对的名称不好记,文档也不一定查得到。我一开始自己硬啃,很费劲。

后来改成:直接打开 Claude Code,用自然语言告诉它我想做什么,让它帮我找到对应的配置项、生成配置、运行测试。

效率提升非常明显。

另外,建议在 OpenClaw 的主目录里放一个

CLAUDE.md
文件,把你的个性化规则写进去,这样 Claude Code 每次帮你操作的时候,都会遵循这些规则,不用反复解释。


关于模型选择

最后说一个影响体验的关键因素:底层模型的选择。

我在 VPS 阶段用的是阿里云百炼的模型,体验说实话不太好,感觉机器人挺傻的,很多问题答得不到位。

后来换成 GLM 4.7,明显好一些。再后来用 Claude 的模型,体验是最好的。

这件事给我的教训是:不要在一个差模型上花太多时间折腾,你以为是配置问题,其实可能只是模型不够聪明。

先用最好的模型跑通,再考虑成本优化。


下一篇:本地还是 VPS?个人用和企业用,答案完全不同

OpenClaw实践经验