跳转到内容

Hugging Face (Inference)

Hugging Face Inference Providers 通过单一路由 API 提供 OpenAI 兼容的聊天补全功能。你只需一个 Token 即可访问众多模型(DeepSeek、Llama 等)。OpenClaw 使用 OpenAI 兼容端点(仅限聊天补全);如需文生图、嵌入或语音功能,请直接使用 HF 推理客户端

  • 提供商:huggingface
  • 认证:HUGGINGFACE_HUB_TOKENHF_TOKEN(具有 Make calls to Inference Providers 权限的细粒度 Token)
  • API:OpenAI 兼容(https://router.huggingface.co/v1
  • 计费:单一 HF Token;定价 遵循提供商费率,含免费额度。
  1. Hugging Face → Settings → Tokens 创建一个具有 Make calls to Inference Providers 权限的细粒度 Token。
  2. 运行引导流程,在提供商下拉菜单中选择 Hugging Face,然后在提示时输入你的 API 密钥:
Terminal window
openclaw onboard --auth-choice huggingface-api-key
  1. 默认 Hugging Face 模型 下拉菜单中,选择你想要的模型(当你拥有有效 Token 时,列表从 Inference API 加载;否则显示内置列表)。你的选择会被保存为默认模型。
  2. 你也可以稍后在配置中设置或更改默认模型:
{
agents: {
defaults: {
model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
},
},
}
Terminal window
openclaw onboard --non-interactive \
--mode local \
--auth-choice huggingface-api-key \
--huggingface-api-key "$HF_TOKEN"

这将把 huggingface/deepseek-ai/DeepSeek-R1 设置为默认模型。

如果 Gateway 作为守护进程运行(launchd/systemd),请确保 HUGGINGFACE_HUB_TOKENHF_TOKEN 对该进程可用(例如,在 ~/.openclaw/.env 中或通过 env.shellEnv 设置)。

OpenClaw 通过直接调用 Inference 端点 来发现模型:

Terminal window
GET https://router.huggingface.co/v1/models

(可选:发送 Authorization: Bearer $HUGGINGFACE_HUB_TOKEN$HF_TOKEN 以获取完整列表;某些端点在未认证时仅返回部分模型。)响应为 OpenAI 格式的 { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }

当你配置了 Hugging Face API 密钥(通过引导流程、HUGGINGFACE_HUB_TOKENHF_TOKEN)后,OpenClaw 使用此 GET 请求来发现可用的聊天补全模型。在交互式引导中,输入 Token 后你会看到一个默认 Hugging Face 模型下拉菜单,其中的模型列表来自该请求(如果请求失败则使用内置目录)。在运行时(例如 Gateway 启动时),当密钥存在时,OpenClaw 会再次调用 GET https://router.huggingface.co/v1/models 来刷新目录。该列表会与内置目录合并(以获取上下文窗口和费用等元数据)。如果请求失败或未设置密钥,则仅使用内置目录。

  • 来自 API 的名称: 当 API 返回 nametitledisplay_name 时,模型显示名称会从 GET /v1/models 补充;否则从模型 ID 派生(例如 deepseek-ai/DeepSeek-R1 → “DeepSeek R1”)。
  • 覆盖显示名称: 你可以在配置中为每个模型设置自定义标签,使其在 CLI 和 UI 中按你想要的方式显示:
{
agents: {
defaults: {
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
"huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
},
},
},
}
  • 提供商/策略选择:模型 ID 后追加后缀来选择路由器如何挑选后端:

    • :fastest — 最高吞吐量(路由器选择;提供商选择锁定 — 不显示交互式后端选择器)。
    • :cheapest — 每输出 Token 最低成本(路由器选择;提供商选择锁定)。
    • :provider — 强制指定后端(例如 :sambanova:together)。

    当你选择 :cheapest:fastest(例如在引导模型下拉菜单中)时,提供商被锁定:路由器按成本或速度决定,不会显示可选的”首选特定后端”步骤。你可以在 models.providers.huggingface.models 中将这些添加为单独的条目,或使用带后缀的 model.primary。你也可以在 Inference Provider 设置 中设置默认顺序(不带后缀 = 使用该顺序)。

  • 配置合并: models.providers.huggingface.models 中的现有条目(例如在 models.json 中)在配置合并时会保留。因此你在其中设置的任何自定义 namealias 或模型选项都会被保留。

模型引用使用 huggingface/<org>/<model> 格式(Hub 风格 ID)。以下列表来自 GET https://router.huggingface.co/v1/models;你的目录可能包含更多模型。

示例 ID(来自推理端点):

模型引用(前缀为 huggingface/
DeepSeek R1deepseek-ai/DeepSeek-R1
DeepSeek V3.2deepseek-ai/DeepSeek-V3.2
Qwen3 8BQwen/Qwen3-8B
Qwen2.5 7B InstructQwen/Qwen2.5-7B-Instruct
Qwen3 32BQwen/Qwen3-32B
Llama 3.3 70B Instructmeta-llama/Llama-3.3-70B-Instruct
Llama 3.1 8B Instructmeta-llama/Llama-3.1-8B-Instruct
GPT-OSS 120Bopenai/gpt-oss-120b
GLM 4.7zai-org/GLM-4.7
Kimi K2.5moonshotai/Kimi-K2.5

你可以在模型 ID 后追加 :fastest:cheapest:provider(例如 :together:sambanova)。在 Inference Provider 设置 中设置默认顺序;参阅 Inference ProvidersGET https://router.huggingface.co/v1/models 获取完整列表。

以 DeepSeek R1 为主,Qwen 为备选:

{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-R1",
fallbacks: ["huggingface/Qwen/Qwen3-8B"],
},
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
},
},
},
}

以 Qwen 为默认,附带 :cheapest 和 :fastest 变体:

{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen3-8B" },
models: {
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
"huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
"huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
},
},
},
}

DeepSeek + Llama + GPT-OSS 附带别名:

{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
fallbacks: [
"huggingface/meta-llama/Llama-3.3-70B-Instruct",
"huggingface/openai/gpt-oss-120b",
],
},
models: {
"huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
"huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
"huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
},
},
},
}

使用 :provider 强制指定后端:

{
agents: {
defaults: {
model: { primary: "huggingface/deepseek-ai/DeepSeek-R1:together" },
models: {
"huggingface/deepseek-ai/DeepSeek-R1:together": { alias: "DeepSeek R1 (Together)" },
},
},
},
}

多个 Qwen 和 DeepSeek 模型附带策略后缀:

{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
models: {
"huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
"huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
"huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
"huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
},
},
},
}