2026年3月1日星期日

OpenClaw云部署对比:阿里云、腾讯云、火山云、MiniMax成本与教程

本文对比阿里云(49.9元)、腾讯云(26.5元/月)、火山云(64.9元/月)和MiniMax(39元/月)四家平台的OpenClaw部署教程、成本及配置步骤,涵盖飞书机器人配置、API购买、服务器选择及一键部署方案,适合需要云部署AI代理的用户。

Tags:

图片

  点击下方,关注后台回复【666】,免费领取【AI学习礼包】     



大家好,我是陈凡。

昨天一大早就被微信响不停的声音吵醒了,无奈拿起来一看,原来是一个很久不联系的发小,看到我发的文章,对 OpenClaw 很感兴趣,但他没有 MacMini,Windows电脑中重要文件很多,不能随意本地部署 OpenClaw,问我能不能云部署一个,有哪个值得推荐的?

把最近了解到的OpenClaw信息在脑子里过了好几遍,想到虽然各家大厂都把自己部署 OpenClaw 讲的是"有手就行",我就怀疑得紧,为了帮发小(PS:绝对不是想尝鲜),所以就准备把最近宣传得很火四家(阿里、腾讯、火山、MiniMax),一家家地安装,看看到底哪家值得一用,也能帮大家避避坑

一、配置飞书

不管使用哪个平台进行部署,飞书作为目前国内和 OpenClaw 应用配置最广的工具,也是本次部署最主要的消息通道,所以我们先做准备工作把飞书配置好,以下每个云部署对接时这是个逃不掉的选项!

1、注册飞书机器人Bot

打开飞书开发平台:https://open.feishu.cn/

登录成功后,进入开发者后台。

图1

2、点击创建企业自建应用

图2

填入相关信息完成创建;

图3

3、添加应用能力:机器人

图4

4、点击权限管理,开通飞书消息权限

图5

点击批量导入/导出权限,将下面 JSON 导入;

{  "scopes": {    "tenant": [
      "im:message",      "im:message.p2p_msg:readonly",      "im:message.group_at_msg:readonly",      "im:message:send_as_bot",      "im:resource",
      "contact:user.base:readonly",      "im:message.group_msg",      "im:message:readonly",      "im:message:update",      "im:message:recall",      "im:message.reactions:read",      "docx:document:readonly",      "drive:drive:readonly",      "wiki:wiki:readonly",      "bitable:app:readonly",      "task:task:read",      "contact:contact.base:readonly",      "docx:document",      "docx:document.block:convert",      "drive:drive",      "wiki:wiki",      "bitable:app",      "task:task:write"    ],    "user": []  }}
图6

开通后呈现如下状态;

图7

5、配置事件与回调

图8

事件配置时点击订阅方式旁边的编辑图标,选择:使用 长连接 接收事件;

图9

注意:这里有个小问题,如果在 OpenClaw 上没配置 App ID 和 App Secret,点击长连接保存时多半会报"应用未建立长连接"的错误,因为服务器并没有建立连接;

图10

配置好后,这里需要添加事件,搜索"接收",选择事件直接开通即可;

图11

到这里事件配置完整了。

图12

6、最后我们创建版本发布即可

图13

至此飞书配置全部完成。

二、阿里云服务器安装

1、阿里云购买通道

购买通道:

https://www.aliyun.com/activity/ecs/clawdbot#J_003  

进入购买通道后,如果可以的话,尝试去抢抢每天上午的9.9服务器,如果无法抢到,可以使用下面两个购买入口进行购买。

图14

选择国外站点,阿里的OpenClaw版本比较落后,还是 2月 9 号的版本。

图15

如果仔细寻找,老用户应该还有优惠券,能省一点是一点。

图16

进入支付页面,就能看到完整的支付信息,最后剩下付款就行了。

图17

支付完成,点击进入管理控制台我们接着操作。

图18

2、安装步骤

进入控制台后,能够清楚地看到服务器的基础信息。

图19

这里非常建议给服务器设置个强度高的密码,增加安全性

图20

密码成功设置好,我们就可以使用阿里的 Web 终端"Workbench"来登录操作。

图21

进入 Workbench,一眼就是满满命令操作行,别着急,跟着我的命令一步步操作,离目的地就不远啦!

图22

我们在系统中执行下面命令看看 openclaw 是否正常启动:

ps -ef|grep openclaw-gateway
图23

到这里服务器先放到一边,然后我们可以使用云百炼把 APIKey 获取到。

3、购买 Token

这一步必不可少,如果用阿里云的服务器,那就非阿里云百炼莫属了,当然如果你费用充裕的话还是建议使用Claude,毕竟只有 Claude 才能测试出 OpenClaw 的能力边界。

登录:

https://cn.aliyun.com/benefit/?from_alibabacloud=

图24

完成购买后,我们进入控制台,在 APIKey 中点击生成;

图25

生成后,复制生成的 APIKey,同时启动 APIKey。

图26

我们切回连服务器的终端,在里面将生成的 APIKey 复制到下面的位置。

注意:这里有个小小的坑,如果你使用 SSH 来登录服务器,并且使用的是 root 用户,那你是无法在它下面找到 .openclaw 文件夹的,因为它在 admin 下面,我们只需执行下面的命令就可以切回 admin 用户。

# 切 admin su - admin# 检查是否存在cd ~ && ls -al
图27
# 编辑配置文件vim ~/.openclaw/openclaw.json

修改配置文件,将下面的内容全部替换 openclaw.json 即可,同时将 YOUR_API_KEY 替换为您的 Coding Plan API Key;

{  "meta": {    "lastTouchedVersion": "2026.2.9",    "lastTouchedAt": "2026-02-10T14:08:39.023Z"  },  "wizard": {    "lastRunAt": "2026-02-10T08:05:20.034Z",    "lastRunVersion": "2026.2.9",    "lastRunCommand": "onboard",    "lastRunMode": "local"  },  "auth": {    "profiles": {      "alibaba-cloud:default": {        "provider": "alibaba-cloud",        "mode": "api_key"      }    }  },  "models": {    "mode": "merge",    "providers": {      "bailian": {        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",        "apiKey": "YOUR_API_KEY",        "api": "openai-completions",        "models": [          {            "id": "qwen3.5-plus",            "name": "qwen3.5-plus",            "reasoning": false,            "input": [              "text",              "image"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 1000000,            "maxTokens": 65536          },          {            "id": "qwen3-max-2026-01-23",            "name": "qwen3-max-2026-01-23",            "reasoning": false,            "input": [              "text"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 262144,            "maxTokens": 65536          },          {            "id": "qwen3-coder-next",            "name": "qwen3-coder-next",            "reasoning": false,            "input": [              "text"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 262144,            "maxTokens": 65536          },          {            "id": "qwen3-coder-plus",            "name": "qwen3-coder-plus",            "reasoning": false,            "input": [              "text"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 1000000,            "maxTokens": 65536          },          {            "id": "MiniMax-M2.5",            "name": "MiniMax-M2.5",            "reasoning": false,            "input": [              "text"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 1000000,            "maxTokens": 65536          },          {            "id": "glm-5",            "name": "glm-5",            "reasoning": false,            "input": [              "text"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 202752,            "maxTokens": 16384          },          {            "id": "glm-4.7",            "name": "glm-4.7",            "reasoning": false,            "input": [              "text"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 202752,            "maxTokens": 16384          },          {            "id": "kimi-k2.5",            "name": "kimi-k2.5",            "reasoning": false,            "input": [              "text",              "image"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 262144,            "maxTokens": 32768          }        ]      }    }  },  "agents": {    "defaults": {      "model": {        "primary": "bailian/qwen3.5-plus"      },      "models": {        "bailian/qwen3.5-plus": {},        "bailian/qwen3-max-2026-01-23": {},        "bailian/qwen3-coder-next": {},        "bailian/qwen3-coder-plus": {},        "bailian/MiniMax-M2.5": {},        "bailian/glm-5": {},        "bailian/glm-4.7": {},        "bailian/kimi-k2.5": {}      }    }  },  "messages": {    "ackReactionScope": "group-mentions"  },  "commands": {    "native": true,    "nativeSkills": true  },  "cron": {    "enabled": true  },  "hooks": {    "internal": {      "enabled": true,      "entries": {        "boot-md": {          "enabled": true        },        "command-logger": {          "enabled": true        },        "session-memory": {          "enabled": true        }      }    }  },  "gateway": {    "port": 11796,    "mode": "local",    "bind": "lan",    "controlUi": {      "basePath": "baeee18a",      "allowInsecureAuth": true    },    "auth": {      "mode": "token",      "token": "e187e68951502801078ea5d32cea04e7"    },    "remote": {      "token": "e187e68951502801078ea5d32cea04e7"    },    "reload": {      "mode": "restart"    },    "tailscale": {      "mode": "off",      "resetOnExit": false    },    "http": {      "endpoints": {        "chatCompletions": {          "enabled": true        },        "responses": {          "enabled": true        }      }    },    "nodes": {      "denyCommands": [        "camera.snap",        "camera.clip",        "screen.record",        "calendar.add",        "contacts.add",        "reminders.add"      ]    }  },  "plugins": {    "entries": {      "alibaba-cloud-auth": {        "enabled": false      },      "qqbot": {        "enabled": true      },      "dingtalk": {        "enabled": true      },      "wecom": {        "enabled": true      }    },    "installs": {      "qqbot": {        "source": "path",        "sourcePath": "/home/admin/qqbot",        "installPath": "/home/admin/.openclaw/extensions/qqbot",        "version": "1.4.4",        "installedAt": "2026-02-10T14:06:13.661Z"      },      "dingtalk": {        "source": "npm",        "spec": "https://github.com/soimy/clawdbot-channel-dingtalk.git",        "installPath": "/home/admin/.openclaw/extensions/dingtalk",        "version": "2.5.1",        "installedAt": "2026-02-10T14:07:10.219Z"      },      "wecom": {        "source": "path",        "sourcePath": "/home/admin/openclaw-plugin-wecom",        "installPath": "/home/admin/.openclaw/extensions/wecom",        "version": "1.2.1",        "installedAt": "2026-02-10T14:08:38.715Z"      }    }  }}

注意:也可以参考官网配置 https://help.aliyun.com/zh/model-studio/openclaw-coding-plan

完成后,按键盘的 esc 输入以下命令保存。

# 保存:wq# 使用下面命令重启openclaw gateway restart# 启动后,可以先使用终端进行沟通openclaw tui
图28

4、与飞书对接

关于飞书的配置可以直接跳到第一节,飞书配置完毕后,我们让 OpenClaw 自己安装飞书,使用下面一段话和 OpenClaw 进行沟通:

我给你飞书的App ID: cli_a92********** 和App Secret: eEOGF********************你给我配置openclaw channels,你配置好告诉我,我来重启网关;
图29

然后使用命令重启即可。

openclaw gateway restart

5、效果演示

其实如果配置正常,在飞书发布的那一瞬间就已经通了,现在就可以愉快地沟通啦!

图30

6、成本

这次安装费用:42元(2核2G 阿里服务器,原价57 - 15元代金券)+ 7.9元(阿里Coding API 会员)= 49.9 元
中规中矩,没上50,但安装稍显复杂,没玩过服务器的人稍微有些难度。

三、腾讯云服务器安装

腾讯云可以说是我买过最多的云服务商,所以当他刚刚上线 OpenClaw 服务器,我就马上入手了一台。

1、腾讯云购买通道

先登录:

https://cloud.tencent.com/product/lighthouse

找到 OpenClaw 活动进行购买;

图31

选择立即部署我的 AI 代理;

图32

这里我们可以直接选择下面两种服务器,如果预算够的话,建议还是要 2核4G 的,毕竟有些 OpenClaw 的插件也吃内存,同时这和刚才的阿里服务器一比,是不是便宜了很多🤭.

图33

在选择国外站点时,尽量别选亚洲国家。

图34

可以加入 1元/年的 50GB 存储,还是挺划算的;

图35

支付完成后,等待 1 分钟,即可进入服务器控制台:

图36

2、腾讯云安装步骤

进入控制台就可以看到正在运行的服务器。

图37

这里我们需要看一下服务器的防火墙,看是否存在 18789 端口,如果存在,则 OpenClaw 的端口是通的。

图38

接着我们找到应用管理,这里可以统一配置模型、通道和技能

图39

选择模型,这里我选用的是 Moonshot AI(Kimi国内)和 Kimi K2.5,同时输入 Kimi API

图40
图41

KimiAPI 可以从官网申请:

https://platform.moonshot.cn/console/api-keys

图42

通道我们选择飞书,前提是飞书已经创建好(请看第一节),同样将 App ID 和 App Secret 填入,即可完成通道配置。

图43
图44

安装技能这项,我们可以使用 https://clawhub.ai/ 找到最适合你的,进行安装,比如我们安装 "self-improving-agent" Skill,将名字直接输入,点击安装技能即可。

图45

安装成功后可以看到最下方已经安装完毕了:

图46

3、效果

这里有一点要注意,如果在沟通的时候出现以下情况:

图47

我们只需在服务器终端执行以下命令即可;

# AD4KRVDS 是 OpenClaw 返回给飞书的动态码,换成你的即可openclaw pairing approve feishu AD4KRVDS
图48

至此腾讯云的安装步骤全部完成,下面我们一起来看看效果。

图49

4、成本

腾讯云说起来成本要低,配置还要高,说实话真不错!

16.5元/月(199元/年,2核4G 服务器)+ 10元 KimiAPI 费用 = 26.5 元/月
成本马上就下来了!如果单看服务器,腾讯比阿里便宜2倍还多!

四、火山云服务器安装

有了腾讯云的前车之鉴,我反而对用火山云部署有了更多的期待,当然成本因素居多🙂。

1、火山云购买和配置

进入购买通道:

https://www.volcengine.com/activity/clawdbot

图50

官网给了明确的安装步骤,我用了四步完成了配置和购买。

图51

▶ 第一步:选择模板购买

在购买阶段,我们直接使用火山提供的应用模板购买,同时选择国外站点,服务器暂时选 2核4G 的

图52

▶ 第二步:选择模型

这里直接可以对 OpenClaw 进行模型配置,我们选择 doubao-seed-2.0-code,然后点击创建 APIKey;同时填写服务器登录密码。

图53

在APIKey管理页面,选择创建 APIKey 即可。

图54

接着我们点击左边栏的开通管理,将所有大模型一键开通。

图55

然后回到选择模型处,点击右边的刷新,把 APIKey 选好即可。

图56

▶ 第三步:安全策略

输入登录密码和确认密码,同时勾选角色授权,方便后续的升级。

图57

▶ 第四步:高级配置

进入高级配置,这里消息依然选择飞书,同样在第一节配置好飞书后,填入 App Id 和 App Secret;

图58

至此,我们就可以付费购买服务器了,确认阶段就能发现确实有一个月的 Coding 会员;

图59

支付完成后我们进入控制台;

图60

▶ 第五步:测试服务器终端和飞书

服务器几乎不用做任何调整,点击远程连接;

图61

选择 ECS Terminal 的 Web 登录入口。

图62

登录后使用下面命令,开启与 OpenClaw 的沟通模式:

openclaw tui
图63

目前终端已经可用,接下来我们再用飞书沟通的时候可能会遇到下面的情况:

图64

还是老规矩,在终端执行通讯命令;

# 8EPTZXQD 是 OpenClaw 返回给飞书的动态码,换成你的即可openclaw pairing approve feishu 8EPTZXQD

然后我们一起来看看效果——不错,已经通了!

图65

2、成本

64.9元/月(2核4G 服务器 + 豆包 API)
单看服务器,虽然费用略高于阿里,但配置更高!亮点是买服务器搭配 Coding 会员,不得不说,还得是你呀。

五、MiniMax 的一键安装

为啥说MiniMax是一键安装?因为官方自己封装了 OpenClaw,称作 MaxClaw,10 秒钟即可部署完成

图66

这里你根本不用买服务器,而且官网赠送每天 200 积分来使用MiniMax模型的 API,成本只差一个 39 元的会员,可以尝试!

1、MaxClaw 部署

登录:https://agent.minimaxi.com/,可以从左边栏,或者中间对话框上方的广告中进入 MaxClaw 的部署;

图67

这里我们需要开通一个入门版的会员才能部署 MaxClaw,点击左下角找到升级按钮;

图68

选择 39 元的套餐即可;

图69

点击立即开始;

图70

MaxClaw 提供了预置的专家配置,大家可以根据自己的要求进行选择;

图71

选择后等待 1 分钟左右,即可完成创建;

图72

2、配置飞书

这次配置飞书我们只需要提前根据第一节完成飞书配置即可,同样记录飞书应用的 App Id 和 App Secret,然后敲入以下提示词和 MaxClaw 沟通,让他来帮你安装,完成后他会告诉你配置完成,这时候你直接配置飞书的事件订阅即可。

我给你飞书的App ID:cli_a92********** 和App Secret:eEOGF********************你来给我配置好这个通道;
图73

配置好飞书且发版后,我们尝试连接看看;

图74

看来是没问题,不过和他多聊了两句后,我也搞清楚了 MaxClaw 的部署逻辑,其实就是统一集群部署;关于每个你的 MaxClaw 能分多少 CPU 和内存,这就要看并发使用人数了,就目前测试的速度应该不会比 2核2G 的服务器差。

图75
图76

3、成本

每月 39 元,包含服务器和 MiniMax 2.5 模型的 API 费用,由于没有单独服务器,无法横向比较,但就速度来说不输上面的阿里。

六、总结

经过一天的测试,总共花费:阿里云 49.9 元、腾讯云 209 元(年费)、火山云 64.9 元、MiniMax 39 元,一圈下来,感觉越部署越轻松,到了 MaxClaw 连服务器都不用维护,动动嘴就给你装好了,对小白非常友好。

下面我做了一个表,大家多维度对比一下,来挑选适合自己的部署环境,我呢就先去找人接手了🤣。

图片

经过对比,大家心里应该也有数了,肯定有伙伴要问还有好多云服务器可以部署呀,非得这些吗?当然不是,这只是给没玩过云部署的小白玩家一个参考。

这次测试最大的感悟就是空虚感,OpenClaw出来一个月了,有的大佬都用它打造了自己的个人工作室挣到了去年一年的钱;有的用它赋能团队效能加速工作效率提升好几倍

部署只是敲门砖,最好带着目的去部署,多去 https://clawhub.ai/ 上找找自己感兴趣的 Skill,想好用 OpenClaw 干什么,这才不会盲目地买台服务器去部署,那点小小的部署成就其实微不足道,您说对不。

最后非常感谢各位能坚持看到这儿,为了让大家能更快的提升大家AI方面的知识,我特别为粉丝准备了免费领取价值99的,3天的体验破解卡为你开启AI的学习之旅。
图片
图片
图片

扫码

链接我领礼包

图片
图片
图片
图片

没有评论:

发表评论

免费AI工具:音频驱动图片对口型,支持多人对话与动物角色

本文介绍一款可免费使用的AI网站,能够通过音频驱动静态图片实现对口型效果,支持多人对话场景及动物角色,操作简单且无需付费。适合视频创作者、自媒体运营及AI技术爱好者尝试,文中包含实际案例效果展示及使用建议。 Tags: AI对口型 音频驱动图片 免费AI工具 ...