Skip to content
广告 · 本站推荐广告

初始化概览

OpenClaw 提供多种初始化路径,具体取决于你的 Gateway(网关)运行位置和操作系统。本页帮助你快速找到适合的初始化方式。

初始化路径一览

路径平台Gateway 位置难度推荐人群
CLI 引导向导macOS / Linux / Windows (WSL2)本地⭐ 简单所有用户
macOS 应用引导macOS本地⭐ 最简单macOS 用户
自定义 Provider所有平台本地或远程⭐⭐ 中等使用非官方模型的用户

CLI 引导向导

推荐方式

CLI 引导向导是跨平台通用的初始化方式,适用于所有支持的操作系统。

bash
openclaw onboard

适用于:

  • macOS — 命令行偏好用户
  • Linux — 所有主流发行版
  • Windows (WSL2) — 通过 Windows Subsystem for Linux 2 运行

向导会引导你完成模型配置、Gateway 启动、渠道接入等所有步骤。详见 引导向导(CLI)

macOS 应用引导

macOS 应用提供图形化的引导流程,适合不熟悉命令行的用户:

  1. 安装 macOS 应用
  2. 首次启动时自动进入引导
  3. 图形界面逐步引导权限授权和配置

详见 初始化(macOS 应用)

自定义 Provider(模型提供商)

如果你使用的模型端点不在 OpenClaw 预置列表中,可以通过自定义 Provider 接入。

OpenAI-compatible(兼容 OpenAI API 的端点)

适用于所有提供 OpenAI 兼容 API 的服务,包括:

  • DeepSeek
  • 通义千问(Qwen)
  • Kimi(Moonshot AI)
  • 文心一言(ERNIE)
  • vLLM / Ollama 本地部署
  • 其他 OpenAI API 兼容服务
bash
openclaw onboard
# 在模型选择步骤中选择 "OpenAI-compatible"
# 输入自定义 API 端点和密钥

配置示例:

json
{
  "models": {
    "default": "openai-compatible:deepseek-chat",
    "providers": {
      "openai-compatible": {
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "sk-..."
      }
    }
  }
}

Anthropic-compatible(兼容 Anthropic API 的端点)

适用于提供 Anthropic 兼容 API 的服务:

json
{
  "models": {
    "default": "anthropic-compatible:claude-3.5-sonnet",
    "providers": {
      "anthropic-compatible": {
        "baseUrl": "https://your-proxy.example.com/v1",
        "apiKey": "sk-..."
      }
    }
  }
}

Unknown / Auto-detect(自动检测)

如果你不确定端点的 API 兼容格式,可以选择 Auto-detect,OpenClaw 会自动发送探测请求来判断端点类型:

bash
openclaw onboard
# 选择 "Auto-detect"
# 输入端点 URL,OpenClaw 会自动检测 API 格式

自动检测原理

OpenClaw 会向端点发送 OpenAI 格式和 Anthropic 格式的测试请求,根据响应格式自动判断。如果两种格式都无法匹配,会提示你手动选择。

Gateway(网关)运行位置

初始化路径还取决于你的 Gateway 运行在哪里:

本地运行

Gateway 运行在你的本机上,最简单的方式:

bash
# CLI 方式
openclaw gateway --port 18789

# 或通过向导自动配置
openclaw onboard --install-daemon

远程运行

Gateway 运行在远程服务器上,本地客户端通过网络连接:

bash
# 在服务器上启动 Gateway
openclaw gateway --host 0.0.0.0 --port 18789

# 在本地客户端连接
openclaw connect --gateway ws://your-server:18789

选择建议

你使用 macOS 吗?

  ┌───┴───┐
  是       否
  │         │
  ▼         ▼
想用图形界面?  你用 Linux / WSL2?
  │              │
  是 → macOS 应用  是 → CLI 向导
  │              │
  否 → CLI 向导   否 → 检查平台支持

下一步

🇨🇳 中国用户须知

  • 自定义 Provider 是国内用户接入国产模型的主要方式,详细配置参见 国产模型配置
  • 推荐使用 OpenAI-compatible 模式接入 DeepSeek(性价比极高)和通义千问
  • 如果你使用 Ollama 在本地运行开源模型,端点地址通常为 http://localhost:11434/v1

基于MIT协议开源 | 内容翻译自 官方文档,同步更新