OpenClaw模型管理

2026-04-27 37

模型(Models)是 OpenClaw Agent 的智能核心,直接决定 Agent 的交互能力与处理效率。为适配不同场景需求,OpenClaw 提供了灵活完善的模型管理机制,支持多模型自由切换、按会话场景覆写模型配置,以及模型能力自动检测,让模型使用更灵活、更可控。

一、OpenClaw模型引用格式

OpenClaw 中所有模型均采用统一的引用格式,便于识别和调用,格式规范为 provider/model-name,各部分含义如下:

provider/model-name
└──┬──┘ └───┬─────┘
│ │
提供商 模型名称

1. 解析规则

模型引用将按照第一个斜杠进行分割,以此区分提供商与模型名称;需要注意的是,模型名称中可包含斜杠,例如 azure/deployments/gpt-4o/chat,此类格式仍可被正确解析。

2. 常用模型引用示例

以下为各类主流模型的标准引用方式,涵盖国际模型、国产模型及本地模型,可直接用于配置:

# OpenAI 系列
openai/gpt-4o
openai/gpt-4o-mini
openai/o1
openai/o3-mini

# Anthropic 系列
anthropic/claude-3-5-sonnet-20241022
anthropic/claude-3-opus-20240229

# Google 系列
google/gemini-2.0-flash
google/gemini-1.5-pro

# DeepSeek 系列(国产)
deepseek/deepseek-chat
deepseek/deepseek-coder

# 本地模型(基于Ollama部署)
ollama/llama3:70b
ollama/codellama:34b

二、OpenClaw模型配置方式

OpenClaw 支持多种模型配置方式,可根据使用场景灵活设置,满足默认使用、场景适配及动态调整需求。

1. 默认模型设置

可在 Agent 配置中指定默认模型,该模型将应用于所有未显式指定模型的会话,配置示例如下:

# Agent 配置
model: openai/gpt-4o

2. 按会话覆写模型

针对特定渠道、用户等场景,可覆写默认模型设置,实现不同场景下的模型差异化使用,配置示例如下(支持按渠道、按用户覆写):

model: openai/gpt-4o # 默认模型(全局生效)
overrides:
telegram:
model: deepseek/deepseek-chat # Telegram 渠道专属模型
whatsapp:
model: openai/gpt-4o-mini # WhatsApp 渠道专属轻量模型

3. 运行时动态切换

用户可在对话过程中,通过简单命令动态切换当前会话的模型,无需修改配置文件,常用命令如下:

# 切换当前会话的模型(示例:切换至DeepSeek)
/model deepseek/deepseek-chat

# 查看当前会话使用的模型
/model

# 查看系统中所有可用的模型列表
/models

三、OpenClaw模型能力管理

不同模型的功能特性存在差异,OpenClaw 支持模型能力检测与匹配,确保功能使用与模型能力适配,避免报错。

1. 核心能力说明

各模型具备的能力集合不同,核心能力及对应说明、示例模型如下表所示:

能力 说明 示例模型
Vision(视觉) 理解图片输入 GPT-4o, Claude 3.5
Streaming(流式) 支持流式输出 大多数模型
Function Calling 支持工具调用 GPT-4o, Claude 3.5
JSON Mode 结构化 JSON 输出 GPT-4o, DeepSeek
Reasoning(推理) 深度推理模式 o1, o3

2. 模型能力矩阵

以下为常见模型的能力详细配置,可直观查看各模型的功能支持情况:

models:
openai/gpt-4o:
vision: true
streaming: true
functionCalling: true
jsonMode: true
reasoning: false

openai/o1:
vision: true
streaming: false # o1 不支持流式输出
functionCalling: true
jsonMode: true
reasoning: true # 支持深度推理

deepseek/deepseek-chat:
vision: false # 不支持图片输入
streaming: true
functionCalling: true
jsonMode: true
reasoning: false

3. 能力自动匹配

当 Agent 尝试使用模型不支持的功能时(例如向不支持视觉能力的 DeepSeek 模型发送图片),OpenClaw 会自动进行降级处理,或直接报错提示,确保系统稳定运行。

四、Token限制与预算分配

1. 模型固定 Token 限制

每个模型都有固定的 Token 限制,包括上下文窗口大小和最大输出 Token 数量,具体配置如下:

tokenLimits:
openai/gpt-4o:
contextWindow: 128000 # 上下文窗口大小(可承载的总Token数)
maxOutputTokens: 16384 # 单次最大输出Token数

anthropic/claude-3-5-sonnet:
contextWindow: 200000
maxOutputTokens: 8192

deepseek/deepseek-chat:
contextWindow: 64000
maxOutputTokens: 8192

ollama/llama3:70b:
contextWindow: 8192
maxOutputTokens: 4096

2. Token 预算分配规则

模型的上下文窗口容量将按以下规则分配,确保输入与输出的合理适配:

上下文窗口 = 系统提示词 + 对话历史 + 工具结果 + 预留输出空间
└─────────────────┬───────────────────┘ └────┬────┘
输入 Token 输出 Token

五、OpenClaw模型选择建议

结合不同使用场景,推荐对应的模型及选择理由,帮助用户高效匹配需求、控制成本:

场景 推荐模型 理由
通用对话 openai/gpt-4o 全能,性价比高
代码生成 anthropic/claude-3-5-sonnet 代码能力强
深度推理 openai/o1 专为复杂推理优化
高性价比 deepseek/deepseek-chat 性能优秀,价格低
快速响应 groq/llama-3-70b 推理速度极快
离线/隐私 ollama/llama3:70b 完全本地运行
  • 广告合作

  • QQ群号:4114653

温馨提示:
1、本网站发布的内容(图片、视频和文字)以原创、转载和分享网络内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。邮箱:2942802716#qq.com(#改为@)。 2、本站原创内容未经允许不得转裁,转载请注明出处“站长百科”和原文地址。