## 01 系统概述 > [OpenClaw 控制台使用手册](README.md) > 系统概述 --- ## 1.1 OpenClaw/Cloud Boot 在本机中的角色 OpenClaw 控制台可以理解为一层「本地 AI 网关 + 控制台」: - 向上:对接飞书、Cloud Boot(卡若消息中枢)、浏览器等「前端入口」。 - 中间:作为 **统一网关**,负责会话管理、通道路由、使用量统计。 - 向下:调用本机 **Ollama** 或云端 API(如 v0,间接使用 Claude 等模型)。 在你当前的配置中: - 主模型为 **`ollama/qwen2.5:3b`**(本机小模型),Provider 为 `ollama`。 - 网关监听在本机 **18789 端口**。 - 所有「通过 OpenClaw 的对话」最终都会落到本机 Ollama 或其他你配置的 Provider。 --- ## 1.2 核心组件与数据流 整体数据流可以简化为三层: 1. **入口层(Client)** - 浏览器打开 `http://127.0.0.1:18789/config` 的控制面板进行对话。 - 飞书/Cloud Boot 通过 `feishu_openclaw_bridge.py` 转发消息到网关。 2. **网关层(OpenClaw Gateway)** - 进程来源:Docker 容器或 `openclaw gateway start` 命令。 - 端口:`18789`。 - 职责: - 管理会话与对话历史; - 按配置选择 Provider(如 `ollama`、`v0`)和具体模型; - 记录使用情况(tokens、费用等,视 Provider 能力而定)。 3. **模型层(Providers)** - 本机 Provider:`ollama`(`http://localhost:11434`),模型如 `qwen2.5:3b`。 - 备选 Provider:`v0` 等云端 API(如启用)。 --- ## 1.3 配置文件与持久化位置 关键配置写在本机用户目录下: | 项目 | 位置 | 说明 | |------|------|------| | OpenClaw 主配置 | `~/.openclaw/openclaw.json` | 包含网关端口、默认 Provider、默认模型等。 | | clawdbot 源码 | `开发/8、小工具/clawdbot` | 包含 UI 前端、飞书桥接脚本等。 | | 飞书桥接脚本 | `feishu_openclaw_bridge.py` | 将飞书消息转成 OpenClaw 可理解的请求。 | 网关重启不会丢失配置,因为主要设置保存在上述配置文件中。 --- ## 1.4 与卡若AI/Cloud Boot 的关系 - 卡若AI 是「大脑与规则集合」; - OpenClaw 是「本地网关与路由器」; - Cloud Boot/飞书机器人是「对外入口」。 典型链路可以描述为: > 飞书消息/Cloud Boot → `feishu_openclaw_bridge.py` → OpenClaw 网关(18789) → Provider(Ollama/qwen2.5:3b 或 v0)→ 返回结果 → 飞书/Cloud Boot 展示 --- 上一篇:无 | 下一篇:[02 快速入门](02-快速入门.md) 返回 [章节目录](README.md)