模型配置
Midscene 通过读取操作系统中指定的环境变量来完成配置。
Midscene 默认集成了 OpenAI SDK 调用 AI 服务,它限定了推理服务的参数风格,绝大多数模型服务商(或模型部署工具)都提供了满足这种要求的接口。
本篇文档会重点介绍 Midscene 的模型配置参数。如果你对 Midscene 的模型策略感兴趣,请阅读 模型策略。如果你想查看常用模型的配置示例,请阅读 常用模型配置。
必选配置
你需要为 Midscene 配上一个默认模型,详见 模型策略 文档。
使用 Codex App Server(OAuth,无需 API Key)
如果你已经通过 Codex CLI 登录(codex login),并希望 Midscene 直接复用该 OAuth 会话,可设置:
说明:
- 该模式下不需要
MIDSCENE_MODEL_API_KEY。 - Midscene 会通过 stdio 调用
codex app-server。 - 请确保
codex在 PATH 中可用,并通过codex login status确认登录状态。
高阶配置(可选)
提示:通过 Agent 的
replanningCycleLimit入参控制重规划次数(默认 20,vlm-ui-tars为 40),不再使用环境变量。
为 Insight 意图单独配置模型
如果你想为 Insight 意图单 独配置模型,需额外配置以下字段:
为 Planning 意图单独配置模型
如果你想为 Planning 意图单独配置模型,需额外配置以下字段:
调试日志开关
通过设置以下配置,可以在命令行打印更多调试日志。
无论是否配置,这些日志都会打印在 ./midscene_run/log 文件夹中。
仍兼容的模型配置(不推荐)
以下环境变量已废弃但仍然兼容,建议尽快迁移到新的配置方式。
Planning 模型配置
通用配置
使用 JavaScript 配置参数
你也可以使用 JavaScript 来为每个 Agent 配置模型参数,详见 API 参考
常见问题
如何查看模型的 token 使用情况?
通过在环境变量中设置 DEBUG=midscene:ai:profile:stats,你可以打印模型的使用信息和响应时间。
你也可以在报告文件中查看模型的使用量统计。
使用 LangSmith
LangSmith 是一个用于调试大语言模型的平台。Midscene 提供了自动集成支持,只需安装依赖并设置环境变量即可。
步骤 1:安装依赖
步骤 2:设置环境变量
启动 Midscene 后,你应该会看到类似如下的日志:
注意:
- LangSmith 和 Langfuse 可以同时启用
- 仅支持 Node.js 环境,浏览器环境会报错
- 如果使用
createOpenAIClient参数,环境变量方式会被覆盖
如果需要更细粒度的控制(例如只对特定任务启用 LangSmith),可以通过 createOpenAIClient 手动包装客户端。
使用 Langfuse
Langfuse 是另一个流行的 LLM 可观测性平台。Midscene 已经集成了 Langfuse 的 observeOpenAI wrapper,自动追踪所有 OpenAI API 调用。
由于 Langfuse 的追踪基于 OpenTelemetry,你需要在应用启动时初始化 OpenTelemetry SDK。
步骤 1:安装依赖
步骤 2:初始化 OpenTelemetry(必需)
在应用入口文件的最顶部添加以下代码:
步骤 3:设置环境变量
启动 Midscene 后,你应该会看到类似如下的日志:
了解更多:查看 Langfuse OpenAI 集成文档 获取更多配置选项和最佳实践。
注意:
- LangSmith 和 Langfuse 可以同时启用
- 仅支持 Node.js 环境,浏览器环境会报错
- 如果使用
createOpenAIClient参数,环境变量方式会被覆盖

