部署 OpenClaw + 飞书协同
一、目标: 1. 公司内部 Windows 服务器上部署 OpenClaw 2. 集成任意模型,免费的最好 3. 对接飞书机器人 二、用时: 整整一天😪 三、成果: 四、归纳流程: 1. 前期准备:服务器上的可用工具少到令人发指,中途不得不多次暂停以解决如下这些问题。 ① 配置代理:OpenClaw 有依赖需要从 GitHub 上拉代码,所以必须要配置代理,不然无论是 install.cmd 还是 npm 的方式,都会失败。 ② 安装 node 和 git:重要性无需多言。 ③ 配置 WSL 内存:服务器上的 docker 运行在 WSL 环境里,之前分配的内存太少了(半个月前,服务器故障,频繁自动关机,当时以为是 docker 太耗内存了,所以修改了配置,结果后来发现是硬件故障,可是这个配置就没有再改回来),运行不了本地大模型。 2. docker 安装 ollama docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama 3. 拉个免费的通义千问模型 docker exec -it ollama ollama run qwen3.5:2b 4. npm 安装 OpenClaw npm install -g openclaw@latest 5. 配置 OpenClaw: ① provider 那一步选择 vLLM,实测 Qwen provider 验证可能失败,通过 vLLM 以 OpenAI 兼容模式调用阿里云 API 更稳定; ② 如果选择基于 ollama 的模型,base url 写 http://localhost:11434/v1 ,api key 随便填; ③ 因为免费模型速度实在太慢了,我后面又增加配置了 qwen-plus 模型,base url 写 https://dashscope.aliyuncs.com/compatible-mode/v1 ; ④ 我原本还想接 claude 模型来着,中转平台实在不给力,屡次验证失败,最终只能遗憾放弃。 6. 协同飞书: ① 创建飞书机器人:进入 飞书开放平台 ,创建企业自建应用 → 添加机器人 → 配...