部署 OpenClaw + 飞书协同
一、目标:
1. 公司内部 Windows 服务器上部署 OpenClaw
2. 集成任意模型,免费的最好
3. 对接飞书机器人
二、用时:
整整一天😪
三、成果:
四、归纳流程:
1. 前期准备:服务器上的可用工具少到令人发指,中途不得不多次暂停以解决如下这些问题。
① 配置代理:OpenClaw 有依赖需要从 GitHub 上拉代码,所以必须要配置代理,不然无论是 install.cmd 还是 npm 的方式,都会失败。
② 安装 node 和 git:重要性无需多言。
③ 配置 WSL 内存:服务器上的 docker 运行在 WSL 环境里,之前分配的内存太少了(半个月前,服务器故障,频繁自动关机,当时以为是 docker 太耗内存了,所以修改了配置,结果后来发现是硬件故障,可是这个配置就没有再改回来),运行不了本地大模型。
2. docker 安装 ollama
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama3. 拉个免费的通义千问模型
docker exec -it ollama ollama run qwen3.5:2b4. npm 安装 OpenClaw
npm install -g openclaw@latest5. 配置 OpenClaw:
① provider 那一步选择 vLLM,实测 Qwen provider 验证可能失败,通过 vLLM 以 OpenAI 兼容模式调用阿里云 API 更稳定;
② 如果选择基于 ollama 的模型,base url 写 http://localhost:11434/v1,api key 随便填;
③ 因为免费模型速度实在太慢了,我后面又增加配置了 qwen-plus 模型,base url 写 https://dashscope.aliyuncs.com/compatible-mode/v1;
④ 我原本还想接 claude 模型来着,中转平台实在不给力,屡次验证失败,最终只能遗憾放弃。
6. 协同飞书:
① 创建飞书机器人:进入飞书开放平台,创建企业自建应用 → 添加机器人 → 配置权限;
② 转至 OpenClaw 配置:很简单,按提示操作即可;
③ 转回飞书机器人配置:事件配置 → 使用长连接接收事件;
④ 发布应用 → 向机器人发送消息 → 配对授权。
写在后面:配置流程写的非常简略,实在没力气写仔细了。跑通了整个流程以后还挺开心的,就是暂时没想到什么合适的应用场景。对于我一个程序员来讲,claude code 暂时就足够了😊
评论
发表评论