CLI Onboarding Reference
CLI 引导参考
Section titled “CLI 引导参考”本页是 openclaw onboard 的完整参考。
简短指南请参见引导向导(CLI)。
向导执行的操作
Section titled “向导执行的操作”本地模式(默认)会引导你完成:
- 模型和认证设置(OpenAI Code 订阅 OAuth、Anthropic API key 或 setup token,以及 MiniMax、GLM、Moonshot 和 AI Gateway 选项)
- 工作区位置和引导文件
- Gateway 设置(端口、绑定、认证、Tailscale)
- 频道和提供者(Telegram、WhatsApp、Discord、Google Chat、Mattermost 插件、Signal)
- 守护进程安装(LaunchAgent 或 systemd 用户单元)
- 健康检查
- Skills 设置
远程模式配置此机器连接到其他地方的 Gateway。 它不会在远程主机上安装或修改任何内容。
本地流程详情
Section titled “本地流程详情”` 批准或使用允许列表。
- macOS:LaunchAgent
- 需要已登录的用户会话;对于无头服务器,使用自定义 LaunchDaemon(未随附)。
- Linux 和 Windows(通过 WSL2):systemd 用户单元
- 向导尝试 `loginctl enable-linger ` 使 Gateway 在注销后保持运行。
- 可能提示输入 sudo(写入 `/var/lib/systemd/linger`);它会先尝试不使用 sudo。
- 运行时选择:Node(推荐;WhatsApp 和 Telegram 必需)。不推荐 Bun。
- 启动 Gateway(如需要)并运行 `openclaw health`。
- `openclaw status --deep` 为状态输出添加 Gateway 健康探测。
- 读取可用 Skills 并检查要求。
- 让你选择 node 管理器:npm 或 pnpm(不推荐 bun)。
- 安装可选依赖(某些在 macOS 上使用 Homebrew)。
- 摘要和后续步骤,包括 iOS、Android 和 macOS 应用选项。
如果未检测到 GUI,向导会打印 SSH 端口转发指令以访问 Control UI,而不是打开浏览器。
如果 Control UI 资源缺失,向导会尝试构建它们;回退方案是 `pnpm ui:build`(自动安装 UI 依赖)。
远程模式详情
Section titled “远程模式详情”
远程模式配置此机器连接到其他地方的 Gateway。
远程模式不会在远程主机上安装或修改任何内容。
你需要设置:
- 远程 Gateway URL(
ws://...)
- 令牌(如果远程 Gateway 认证是必需的,推荐启用)
- 如果 Gateway 仅限 loopback,使用 SSH 隧道或 tailnet。
- 发现提示:
- macOS:Bonjour(`dns-sd`)
- Linux:Avahi(`avahi-browse`)
认证和模型选项
Section titled “认证和模型选项”
如果存在 `ANTHROPIC_API_KEY` 则使用它,否则提示输入 key,然后保存以供守护进程使用。
- macOS:检查 Keychain 项 "Claude Code-credentials"
- Linux 和 Windows:如果存在则复用 `~/.claude/.credentials.json`
在 macOS 上,选择 "Always Allow" 以确保 launchd 启动不会被阻止。
在任何机器上运行 `claude setup-token`,然后粘贴令牌。
你可以命名它;留空使用默认名称。
如果 `~/.codex/auth.json` 存在,向导可以复用它。
浏览器流程;粘贴 `code#state`。
当模型未设置或为 `openai/*` 时,设置 `agents.defaults.model` 为 `openai-codex/gpt-5.4`。
如果存在 `OPENAI_API_KEY` 则使用它,否则提示输入 key,然后将凭据存储在 auth profiles 中。
当模型未设置、为 `openai/*` 或 `openai-codex/*` 时,设置 `agents.defaults.model` 为 `openai/gpt-5.1-codex`。
提示输入 `XAI_API_KEY` 并将 xAI 配置为模型提供者。
提示输入 `OPENCODE_API_KEY`(或 `OPENCODE_ZEN_API_KEY`),让你选择 Zen 或 Go catalog。
设置 URL:[opencode.ai/auth](https://opencode.ai/auth)。
为你存储 key。
提示输入 `AI_GATEWAY_API_KEY`。
更多详情:[Vercel AI Gateway](/providers/vercel-ai-gateway)。
提示输入 account ID、gateway ID 和 `CLOUDFLARE_AI_GATEWAY_API_KEY`。
更多详情:[Cloudflare AI Gateway](/providers/cloudflare-ai-gateway)。
配置自动写入。
更多详情:[MiniMax](/providers/minimax)。
提示输入 `SYNTHETIC_API_KEY`。
更多详情:[Synthetic](/providers/synthetic)。
Moonshot(Kimi K2)和 Kimi Coding 配置自动写入。
更多详情:[Moonshot AI(Kimi + Kimi Coding)](/providers/moonshot)。
适用于 OpenAI 兼容和 Anthropic 兼容端点。
交互式引导支持与其他提供者 API key 流程相同的 API key 存储选择:- **立即粘贴 API key**(明文)- **使用密钥引用**(环境变量引用或已配置的提供者引用,带预检验证)
非交互式标志:- `--auth-choice custom-api-key`- `--custom-base-url`- `--custom-model-id`- `--custom-api-key`(可选;回退到 `CUSTOM_API_KEY`)- `--custom-provider-id`(可选)- `--custom-compatibility <openai|anthropic>`(可选;默认 `openai`)
不配置认证。
模型行为:
- 从检测到的选项中选择默认模型,或手动输入提供者和模型。
- 向导运行模型检查,当配置的模型未知或缺少认证时发出警告。
凭据和配置文件路径:
- OAuth 凭据:
~/.openclaw/credentials/oauth.json
- Auth profiles(API keys + OAuth):
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
凭据存储模式:
- 默认引导行为将 API key 作为明文值持久化到 auth profiles 中。
--secret-input-mode ref 启用引用模式,替代明文 key 存储。
在交互式引导中,你可以选择:
- 环境变量引用(例如
keyRef: { source: "env", provider: "default", id: "OPENAI_API_KEY" })
- 已配置的提供者引用(
file 或 exec),带提供者别名 + id
- 交互式引用模式在保存前运行快速预检验证。
- 环境变量引用:验证变量名 + 当前引导环境中的非空值。
- 提供者引用:验证提供者配置并解析请求的 id。
- 如果预检失败,引导显示错误并让你重试。
- 在非交互模式下,
--secret-input-mode ref 仅支持环境变量。
- 在引导进程环境中设置提供者环境变量。
- 内联 key 标志(例如
--openai-api-key)需要该环境变量已设置;否则引导会快速失败。
- 对于自定义提供者,非交互式
ref 模式将 models.providers.<id>.apiKey 存储为 { source: "env", provider: "default", id: "CUSTOM_API_KEY" }。
- 在该自定义提供者场景中,
--custom-api-key 需要 CUSTOM_API_KEY 已设置;否则引导会快速失败。
- Gateway 认证凭据在交互式引导中支持明文和 SecretRef 选择:
- 令牌模式:生成/存储明文令牌(默认)或使用 SecretRef。
- 密码模式:明文或 SecretRef。
- 非交互式令牌 SecretRef 路径:
--gateway-token-ref-env <ENV_VAR>。
- 现有明文设置继续正常工作。
无头服务器提示:在有浏览器的机器上完成 OAuth,然后将
`~/.openclaw/credentials/oauth.json`(或 `$OPENCLAW_STATE_DIR/credentials/oauth.json`)
复制到 Gateway 主机。
输出和内部实现
Section titled “输出和内部实现”
~/.openclaw/openclaw.json 中的典型字段:
agents.defaults.workspace
agents.defaults.model / models.providers(如果选择了 Minimax)
tools.profile(本地引导在未设置时默认为 "coding";现有的显式值被保留)
gateway.*(mode、bind、auth、tailscale)
session.dmScope(本地引导在未设置时默认为 per-channel-peer;现有的显式值被保留)
channels.telegram.botToken、channels.discord.token、channels.signal.*、channels.imessage.*
- 频道允许列表(Slack、Discord、Matrix、Microsoft Teams),当你在提示中选择启用时(名称在可能时解析为 ID)
skills.install.nodeManager
wizard.lastRunAt
wizard.lastRunVersion
wizard.lastRunCommit
wizard.lastRunCommand
wizard.lastRunMode
openclaw agents add 写入 agents.list[] 和可选的 bindings。
WhatsApp 凭据存储在 ~/.openclaw/credentials/whatsapp/<accountId>/ 下。
会话存储在 ~/.openclaw/agents/<agentId>/sessions/ 下。
某些频道作为插件提供。在引导过程中选择时,向导会提示安装插件(npm 或本地路径),然后再进行频道配置。
Gateway 向导 RPC:
wizard.start
wizard.next
wizard.cancel
wizard.status
客户端(macOS 应用和 Control UI)可以渲染步骤而无需重新实现引导逻辑。
Signal 设置行为:
- 下载相应的发布资源
- 存储在
~/.openclaw/tools/signal-cli/<version>/ 下
- 在配置中写入
channels.signal.cliPath
- JVM 构建需要 Java 21
- 可用时使用原生构建
- Windows 使用 WSL2 并在 WSL 内遵循 Linux signal-cli 流程
- 引导中心:引导向导(CLI)
- 自动化和脚本:CLI 自动化
- 命令参考:
openclaw onboard