🔄 卡若AI 同步 2026-03-13 15:42 | 更新:水桥平台对接、卡木、运营中枢、运营中枢参考资料、运营中枢工作台 | 排除 >20MB: 11 个

This commit is contained in:
2026-03-13 15:42:52 +08:00
parent 097c0a18e3
commit 3b5868d79f
14 changed files with 871 additions and 8 deletions

View File

@@ -0,0 +1,81 @@
## 04 模型与 Provider 配置
> [OpenClaw 控制台使用手册](README.md) > 模型与 Provider 配置
---
## 4.1 当前默认模型与 Provider本机状态
根据 `clawdbot/references/Claw中Ollama配置说明.md`,当前本机默认配置为:
| 项 | 值 |
|----|----|
| 主模型 | `ollama/qwen2.5:3b` |
| Provider | 内置 `ollama`(本机 `http://localhost:11434` |
| 认证方式 | `auth.profiles["ollama:local"]``mode: "api_key"` |
| 配置文件 | `~/.openclaw/openclaw.json` |
本机已存在模型:`qwen2.5:1.5b``qwen2.5:3b``nomic-embed-text:latest`,默认用 `qwen2.5:3b`
---
## 4.2 在控制面板中切换 Ollama 模型
1. 打开 `http://127.0.0.1:18789/config`
2. 左侧进入「配置」→「Models」。
3. 在「代理默认模型」处选择或填写其中一种:
- `ollama/qwen2.5:3b`(当前默认)
- `ollama/qwen2.5:1.5b`
- `ollama/nomic-embed-text:latest`(一般用于嵌入,不建议当主对话模型)
4. 保存配置,新建的会话将使用新模型。
> 注意:如果在会话中没有立刻感知到变化,请新建会话再测试。
---
## 4.3 确保 Ollama 服务运行
如果模型调用失败,首先确认 Ollama 是否在本机运行:
```bash
curl -s http://localhost:11434/api/tags
```
预期结果:返回一个包含模型列表的 JSON。如果无返回或报错
- 尝试从启动项中打开 Ollama 应用;
- 或在菜单中选择「Open Ollama」并确认服务已启动。
---
## 4.4 配置 v0/Claude 作为备选 Provider可选
当你希望在本地模型之外,保留一个云端模型作为后备时,可以添加 v0 Provider
1. 在控制面板「配置」→「Models」中新增一个 Provider
- 基础 URL`https://api.v0.dev/v1`
- 模型 ID`v0-1.5-md``v0-1.5-lg`(不要再使用 `v0-1.0-md`
- API 密钥:你的 v0 secret。
2. 将该 Provider 标记为 **fallback**,而主 Provider 仍保持为 `ollama``qwen2.5:3b`
数据流将变为:
- 正常情况下优先使用本机 `ollama/qwen2.5:3b`
- 当本机调用失败时,由网关自动尝试 fallback Provider如 v0对接 Claude 等)。
---
## 4.5 常见配置错误与排查
| 症状 | 可能原因 | 排查建议 |
|------|----------|----------|
| 所有对话都报超时或 500 | Ollama 未启动,或 baseUrl 配错 | 使用 `curl` 测本机接口;检查 `~/.openclaw/openclaw.json` 中的 Provider 配置。 |
| 仅部分会话报错 | 某个 Provider 或模型配置不完整 | 在「配置 → Models」中检查该 Provider 的 baseUrl、API Key、模型 ID。 |
| 使用量统计中 Provider 一直是 unknown | 会话未正确记录 Provider 字段 | 升级 OpenClaw 版本或检查日志,确认请求是否被中间层改写。 |
---
上一篇:[03 界面与基础操作](03-界面与基础操作.md) | 下一篇:[05 飞书与 Cloud Boot 集成](05-飞书与CloudBoot集成.md)
返回 [章节目录](README.md)