07 Coding Plan

Estimated reading: 3 minutes 40 views

07

PLAN

Coding Plan 全景

~13 分钟 · 配置指南

“用国内 Coding Plan 订阅,便宜、直连、模型多。”

7.1

什么是 Coding Plan

2 min

一句话定义:Coding Plan = 国内厂商的 AI 模型月度订阅,兼容 OpenAI API 格式。

便宜

最低 29 元/月起,对比海外 $20-200/月

直连

国内网络直连,无需 VPN,低延迟

模型多

一个订阅包含多款模型(Qwen、GLM、DeepSeek、Kimi 等)

通用 3 步配置流程

  • 买套餐:购买 Coding Plan,获取 API Key 和 Base URL
    Key 前缀因平台而异:百炼/腾讯 = sk-sp-,无问芯穹 = sk-cp-,MiniMax = MINIMAX-
  • 写 env:配置环境变量文件# ~/.openclaw/env export OPENAI_API_KEY=你的_CodingPlan_Key export OPENAI_BASE_URL=平台的_BaseURLchmod 600 ~/.openclaw/env
  • 改 json:指定模型名称// ~/.openclaw/openclaw.json { “agent”: { “model”: “平台模型名” } }

注意

JSON 不支持注释,复制时请删除 // 注释行。大多数平台的 Coding Plan Base URL 包含 /coding/ 路径,与通用 API 地址不同,不可混用。

7.2

阿里云百炼

2 min

 8 款模型 · 文档完善

8 款模型可选,首月 7.9 元。Lite 40 元/月(18,000 次),Pro 200 元/月(90,000 次)。
Coding Plan 购买链接 →

env 配置

# ~/.openclaw/env export OPENAI_API_KEY=sk-sp-你的百炼_CodingPlan_Key export OPENAI_BASE_URL=https://coding.dashscope.aliyuncs.com/v1

json 配置

{ “agent”: { “model”: “qwen3-coder-plus” } }

推荐模型

模型适用场景备注
qwen3-coder-plus日常编码代码专用
qwen3.5-plus复杂推理最新旗舰通用模型
qwen3-coder-next高难度编码代码增强版
kimi-k2.5长上下文256K 上下文
glm-5中文理解智谱最新旗舰

注意

Coding Plan 的 API Key 和 Base URL 是专用的,与百炼通用 API 不同,不可混用。

7.3

火山引擎方舟

2 min

 Auto 智能调度

Auto 模式自动匹配模型。Lite 40 元/月(首月 8.9-9.9),Pro 200 元/月(首月 49.9)。
Coding Plan 购买链接 →

env 配置

# ~/.openclaw/env# 注意:Coding Plan 专用地址含 /coding/,与通用 API 不同 export OPENAI_API_KEY=你的火山引擎_Key export OPENAI_BASE_URL=https://ark.cn-beijing.volces.com/api/coding/v3

json 配置(Auto 模式,推荐)

{ “agent”: { “model”: “ark-code-latest” } }

json 配置(指定模型)

{ “agent”: { “model”: “doubao-seed-2.0-code” } }

推荐模型

模型适用场景备注
ark-code-latest通用Auto 调度入口,开启后自动匹配模型
doubao-seed-2.0-code编码豆包代码模型
doubao-seed-2.0-pro通用豆包通用模型
doubao-seed-2.0-lite简单任务轻量版,省额度
deepseek-v3.2复杂推理DeepSeek 最新
kimi-k2.5长上下文256K 上下文
MiniMax-M2.5通用MiniMax 旗舰
glm-4.7中文理解智谱代码模型

Auto 模式

需在方舟控制台的「开通管理」页面手动开启 Auto 功能,开启后才能使用 ark-code-latest

7.4

腾讯云

2 min

 阶梯定价

三级阶梯(首月 7.9 → 次月 20 → 第三月 40),适合先体验再决定。Lite 18,000 次/月,Pro 90,000 次/月。
Coding Plan 购买链接 →

env 配置

# ~/.openclaw/env# 注意:Coding Plan 专用地址含 /coding/,与通用混元 API 不同 export OPENAI_API_KEY=sk-sp-你的腾讯_CodingPlan_Key export OPENAI_BASE_URL=https://api.lkeap.cloud.tencent.com/coding/v3

json 配置(Auto 模式,推荐)

{ “agent”: { “model”: “tc-code-latest” } }

推荐模型

模型适用场景备注
tc-code-latest通用Auto 模式,自动匹配模型
hunyuan-turbos通用编码腾讯混元,响应快
hunyuan-2.0-instruct指令跟随混元 2.0 指令模型
hunyuan-2.0-thinking深度推理混元思维模型
hunyuan-t1复杂任务混元最新旗舰
glm-5中文理解智谱旗舰
kimi-k2.5长上下文256K 上下文
MiniMax-M2.5通用MiniMax 旗舰

7.5

智谱 GLM

1 min

 MCP 加持

内置联网搜索 MCP(100 次/月)和视觉理解 MCP,GLM-5 旗舰可用。Lite 49 元/月,Pro 149 元/月。
Coding Plan 购买链接 →

env 配置

# ~/.openclaw/env# 注意:Coding Plan 专用地址含 /coding/,与通用智谱 API 不同 export OPENAI_API_KEY=你的智谱_Key export OPENAI_BASE_URL=https://open.bigmodel.cn/api/coding/paas/v4

json 配置

{ “agent”: { “model”: “glm-4.7” } }

推荐模型

模型适用场景备注
glm-4.7日常编码Lite 即可
glm-4.6日常编码Lite 可用
glm-5复杂任务旗舰,高峰期 3 倍额度消耗
glm-4.5简单任务省额度
glm-4.5-air轻量任务省额度

7.6

MiniMax

1 min

 价格最低

29 元/月起,4.9 元/周试用,无周限制,每 5 小时自动刷新额度。
域名说明:国内用 api.minimaxi.com,海外用 api.minimax.io,Key 与域名需匹配。
Coding Plan 购买链接 →

env 配置

# ~/.openclaw/env# API Key 格式:MINIMAX- 前缀 export OPENAI_API_KEY=你的_MiniMax_Key # 国内用户用国内域名 export OPENAI_BASE_URL=https://api.minimaxi.com/v1

json 配置

{ “agent”: { “model”: “MiniMax-M2.5” } }

推荐模型

模型适用场景备注
MiniMax-M2.5通用编码旗舰模型
MiniMax-M2.5-highspeed快速迭代需 Highspeed 专属套餐(98 元/月+)
MiniMax-M2.1通用上一代旗舰
MiniMax-M2简单任务省额度

注意

MiniMax 无专用 /coding/ 路径,使用标准 API 端点,区别仅在 API Key。

7.7

无问芯穹(Infini)

1 min

 多模型聚合

Lite 40 元/月,Pro 200 元/月,聚合 6+ 热门模型,滑动窗口限速无 RPM 限制。
Coding Plan 购买链接 →

env 配置

# ~/.openclaw/env# 注意:Coding Plan 专用地址含 /coding/,与通用 API 不同 export OPENAI_API_KEY=sk-cp-你的无问芯穹_CodingPlan_Key export OPENAI_BASE_URL=https://cloud.infini-ai.com/maas/coding/v1

json 配置

{ “agent”: { “model”: “deepseek-v3.2” } }

推荐模型

模型适用场景备注
deepseek-v3.2复杂推理DeepSeek 最新版本
deepseek-v3.2-thinking深度分析带思维链,适合难题
kimi-2.5长上下文注意:无 “k” 前缀
glm-5中文理解智谱旗舰
glm-4.7日常编码性价比高
MiniMax-M2.5通用MiniMax 旗舰
MiniMax-M2.1通用MiniMax 上一代

7.8

联通云

1 min

 限时免费

目前完全免费,12,000 个名额,5 款模型可用。免费活动截止 2026 年 3 月 15 日,先到先得。
联通云 Coding Plan 免费活动 →

env 配置

# ~/.openclaw/env export OPENAI_API_KEY=你的联通云_Key export OPENAI_BASE_URL=联通云提供的_BaseURL

json 配置

{ “agent”: { “model”: “glm-5” } }

可用模型:GLM-5 MiniMax-M2.5 Kimi-K2.5 Qwen3.5 DeepSeek-V3.1

7.9

其他平台速览

1 min

 百度千帆

唯一提供免费试用 + Max 400 元/月档位。首月 7.9-9.9 元。模型:GLM-5、DeepSeek-V3.2、GLM-4.7。
百度千帆 →

 华为云 CodeArts

Lite 40 元/月(首月 7.9),基于华为亿级代码库训练,鸿蒙开发优化。公测免费试用中。

 摩尔线程

Lite 120 元/季度(按季计费),首月免费试用。国产 GPU(MTT S5000),全栈国产。
摩尔线程 →

 快手 KwaiKAT

Mini 29 元/月(首月 8.8),Max 350 元/月。唯一单模型平台(KAT-Coder-Pro V1),跨文件/仓库级代码分析。

 Kimi(月之暗面)

Starter 49 元/月,Mid 99 元/月,Premium 199 元/月。Kimi-K2.5(256K 上下文、多模态)。有自己的终端工具 Kimi Code。
注:K2.5 也可通过百炼/火山/腾讯/联通以更低价格使用。

 硅基流动

暂无独立 Coding Plan,提供按量付费 API。聚合多款开源模型(DeepSeek、Qwen、GLM 等),推理速度 2.3 倍。

7.10

模型支持汇总表

1 min

各平台模型兼容性一览,🟢 = 已验证可用,⚪ = 未明确支持。

模型百炼火山腾讯百度华为联通智谱MiniMaxKimiInfini摩尔快手
Qwen3.5🟢
Qwen3.5-Plus🟢🟢
Qwen3-Max🟢
Qwen3-Coder-Next🟢
Qwen3-Coder-Plus🟢
Doubao-Seed-2.0-Code🟢
Doubao-Seed-2.0-Pro🟢
Doubao-Seed-2.0-Lite🟢
DeepSeek-V3.2🟢🟢🟢🟢
DeepSeek-V3.2-Thinking🟢
DeepSeek-V3.1🟢
GLM-5🟢🟢🟢🟢🟢🟢🟢
GLM-4.7🟢🟢🟢🟢🟢🟢
GLM-4.6🟢
GLM-4.5/Air🟢
Kimi-K2.5🟢🟢🟢🟢🟢🟢
Kimi-K2-Thinking🟢
MiniMax M2.5🟢🟢🟢🟢🟢🟢
MiniMax M2.5-HS🟢
MiniMax M2.1🟢🟢
MiniMax M2🟢
Hunyuan 系列🟢
KAT-Coder-Pro V1🟢

7.11

常见问题 FAQ

2 min

Q: 各平台有什么特点?

模型最多:阿里云百炼(8 款模型,首月 7.9 元)
自动调度:火山引擎方舟(Auto 模式自动匹配模型)
价格最低:MiniMax(29 元/月起)或 无问芯穹(40 元/月起)
免费体验:联通云(限时免费,截止 3 月 15 日)

Q: 配置后报错怎么办?

  • 检查 Base URL:必须用 Coding Plan 专用地址(大多含 /coding/ 路径,MiniMax 除外),不是通用 API 地址!用错地址 = 不走套餐额度 = 额外扣费
  • 末尾无 /如 https://xxx.com/coding/v3 而非 https://xxx.com/coding/v3/
  • 检查模型名:必须与平台文档完全一致(区分大小写)
  • 检查 API Key:各平台前缀不同(百炼/腾讯 sk-sp-,无问芯穹 sk-cp-,MiniMax MINIMAX-),不可混用
  • 测试连通性:curl -H "Authorization: Bearer yourKey" yourBaseURL/models

Q: 能同时配多个平台做故障转移吗?

可以!当一个平台限速或宕机时,自动切换到备用平台:

# ~/.openclaw/env — 配置多平台 Key export OPENAI_API_KEY=你的主力平台_Key export OPENAI_BASE_URL=你的主力平台_BaseURL # 备用平台(用于 fallback) export OPENAI_API_KEY_2=你的备用平台_Key

// ~/.openclaw/openclaw.json — fallbacks 配置 { “agents”: { “defaults”: { “model”: { “primary”: “qwen3-coder-plus”, “fallbacks”: [ “deepseek-v3.2”, “glm-4.7” ] } } } }

Q: 速率限制触发冷却怎么办?

Coding Plan 都有滚动窗口速率限制(如百炼 Lite ~1,200 次/5 小时),触发 429 后 OpenClaw 会进入冷却。建议:
1. 配置 fallbacks 备用模型(见上方)
2. 设置 contextTokens: 50000 控制上下文大小,减少不必要的 API 调用
3. 复杂任务完成后用 /compact 压缩会话

留下回复

您的邮箱地址不会被公开。 必填项已用 * 标注

分享此文档

07 Coding Plan

复制链接

目录