模型(Models)是 OpenClaw Agent 的智能核心,直接决定 Agent 的交互能力与处理效率。为适配不同场景需求,OpenClaw 提供了灵活完善的模型管理机制,支持多模型自由切换、按会话场景覆写模型配置,以及模型能力自动检测,让模型使用更灵活、更可控。
一、OpenClaw模型引用格式
OpenClaw 中所有模型均采用统一的引用格式,便于识别和调用,格式规范为 provider/model-name,各部分含义如下:
provider/model-name
└──┬──┘ └───┬─────┘
│ │
提供商 模型名称
1. 解析规则
模型引用将按照第一个斜杠进行分割,以此区分提供商与模型名称;需要注意的是,模型名称中可包含斜杠,例如 azure/deployments/gpt-4o/chat,此类格式仍可被正确解析。
2. 常用模型引用示例
以下为各类主流模型的标准引用方式,涵盖国际模型、国产模型及本地模型,可直接用于配置:
# OpenAI 系列
openai/gpt-4o
openai/gpt-4o-mini
openai/o1
openai/o3-mini# Anthropic 系列
anthropic/claude-3-5-sonnet-20241022
anthropic/claude-3-opus-20240229# Google 系列
google/gemini-2.0-flash
google/gemini-1.5-pro# DeepSeek 系列(国产)
deepseek/deepseek-chat
deepseek/deepseek-coder# 本地模型(基于Ollama部署)
ollama/llama3:70b
ollama/codellama:34b
二、OpenClaw模型配置方式
OpenClaw 支持多种模型配置方式,可根据使用场景灵活设置,满足默认使用、场景适配及动态调整需求。
1. 默认模型设置
可在 Agent 配置中指定默认模型,该模型将应用于所有未显式指定模型的会话,配置示例如下:
# Agent 配置
model: openai/gpt-4o
2. 按会话覆写模型
针对特定渠道、用户等场景,可覆写默认模型设置,实现不同场景下的模型差异化使用,配置示例如下(支持按渠道、按用户覆写):
model: openai/gpt-4o # 默认模型(全局生效)
overrides:
telegram:
model: deepseek/deepseek-chat # Telegram 渠道专属模型
whatsapp:
model: openai/gpt-4o-mini # WhatsApp 渠道专属轻量模型
3. 运行时动态切换
用户可在对话过程中,通过简单命令动态切换当前会话的模型,无需修改配置文件,常用命令如下:
# 切换当前会话的模型(示例:切换至DeepSeek)
/model deepseek/deepseek-chat# 查看当前会话使用的模型
/model# 查看系统中所有可用的模型列表
/models
三、OpenClaw模型能力管理
不同模型的功能特性存在差异,OpenClaw 支持模型能力检测与匹配,确保功能使用与模型能力适配,避免报错。
1. 核心能力说明
各模型具备的能力集合不同,核心能力及对应说明、示例模型如下表所示:
| 能力 | 说明 | 示例模型 |
|---|---|---|
| Vision(视觉) | 理解图片输入 | GPT-4o, Claude 3.5 |
| Streaming(流式) | 支持流式输出 | 大多数模型 |
| Function Calling | 支持工具调用 | GPT-4o, Claude 3.5 |
| JSON Mode | 结构化 JSON 输出 | GPT-4o, DeepSeek |
| Reasoning(推理) | 深度推理模式 | o1, o3 |
2. 模型能力矩阵
以下为常见模型的能力详细配置,可直观查看各模型的功能支持情况:
models:
openai/gpt-4o:
vision: true
streaming: true
functionCalling: true
jsonMode: true
reasoning: falseopenai/o1:
vision: true
streaming: false # o1 不支持流式输出
functionCalling: true
jsonMode: true
reasoning: true # 支持深度推理deepseek/deepseek-chat:
vision: false # 不支持图片输入
streaming: true
functionCalling: true
jsonMode: true
reasoning: false
3. 能力自动匹配
当 Agent 尝试使用模型不支持的功能时(例如向不支持视觉能力的 DeepSeek 模型发送图片),OpenClaw 会自动进行降级处理,或直接报错提示,确保系统稳定运行。
四、Token限制与预算分配
1. 模型固定 Token 限制
每个模型都有固定的 Token 限制,包括上下文窗口大小和最大输出 Token 数量,具体配置如下:
tokenLimits:
openai/gpt-4o:
contextWindow: 128000 # 上下文窗口大小(可承载的总Token数)
maxOutputTokens: 16384 # 单次最大输出Token数anthropic/claude-3-5-sonnet:
contextWindow: 200000
maxOutputTokens: 8192deepseek/deepseek-chat:
contextWindow: 64000
maxOutputTokens: 8192ollama/llama3:70b:
contextWindow: 8192
maxOutputTokens: 4096
2. Token 预算分配规则
模型的上下文窗口容量将按以下规则分配,确保输入与输出的合理适配:
上下文窗口 = 系统提示词 + 对话历史 + 工具结果 + 预留输出空间
└─────────────────┬───────────────────┘ └────┬────┘
输入 Token 输出 Token
五、OpenClaw模型选择建议
结合不同使用场景,推荐对应的模型及选择理由,帮助用户高效匹配需求、控制成本:
| 场景 | 推荐模型 | 理由 |
|---|---|---|
| 通用对话 | openai/gpt-4o |
全能,性价比高 |
| 代码生成 | anthropic/claude-3-5-sonnet |
代码能力强 |
| 深度推理 | openai/o1 |
专为复杂推理优化 |
| 高性价比 | deepseek/deepseek-chat |
性能优秀,价格低 |
| 快速响应 | groq/llama-3-70b |
推理速度极快 |
| 离线/隐私 | ollama/llama3:70b |
完全本地运行 |

