在 DeepManus 中,我们将模型分为以下三类:
- 用途:用于对话场景,主要在 Supervisor 和 Agent 中被调用。
- 支持的模型:
deepseek-V3、qwen-max-latest。
- 用途:用于复杂推理任务,当 “Deep Think” 模式启用时,在 Planner 中被使用。
- 支持的模型:
deepseek-R1、o3-mini、QwQ-Plus、DeepSeek-R1,gemini-2.0-flash-thinking-exp。
- 用途:用于处理视觉和语言结合的任务,主要在 Browser Tool 中被调用。
- 支持的模型:
deepseek-V3、qwen2.5-vl-72b-instruct。
您可以通过修改项目根目录下的 conf.yaml 文件使用litellm格式的配置来切换所使用的模型。具体配置方法请参考 README.md。
DeepManus 支持集成 OpenAI-Compatible 模型,这些模型实现了 OpenAI API 规范。这包括各种提供与 OpenAI 格式兼容的 API 端点的开源和商业模型。您可以参考 litellm OpenAI-Compatible 获取详细文档。
以下是使用 OpenAI-Compatible 模型的 conf.yaml 配置示例:
# 阿里云模型示例
BASIC_MODEL:
model: "openai/qwen-max-latest"
api_key: YOUR_API_KEY
api_base: "https://dashscope.aliyuncs.com/compatible-mode/v1"
# slliconflow 模型示例
BASIC_MODEL:
model: "openai/Qwen/QwQ-32B"
api_key: YOU_API_KEY
api_base: "https://api.siliconflow.cn/v1"
# deepseek 模型示例
BASIC_MODEL:
model: "openai/deepseek-chat"
api_key: YOU_API_KEY
api_base: "https://api.deepseek.com"DeepManus 支持集成 Ollama 模型。您可以参考litellm Ollama。
以下是使用 Ollama 模型的conf.yaml配置示例:
REASONING_MODEL:
model: "ollama/ollama-model-name"
api_base: "http://localhost:11434" # ollama本地服务地址, 可以通过ollama serve启动/查看地址DeepManus 支持集成 OpenRouter 模型。你可以参考litellm OpenRouter,要使用OpenRouter模型,您需要:
- 从 OpenRouter 获取 OPENROUTER_API_KEY (https://openrouter.ai/) 并设置到环境变量中
- 在模型名称前添加
openrouter/前缀 - 配置正确的 OpenRouter 基础 URL
以下是使用 OpenRouter 模型的配置示例:
- 在环境变量(比如.env文件)中配置OPENROUTER_API_KEY
OPENROUTER_API_KEY=""- 在conf.yaml中配置模型
REASONING_MODEL:
model: "openrouter/google/palm-2-chat-bison"注意:可用模型及其确切名称可能随时间变化。请在 OpenRouter 的官方文档 上验证当前可用的模型及其正确标识符。
DeepManus 支持集成 Google 的 Gemini 模型。您可以参考litellm Gemini,要使用 Gemini 模型,请按照以下步骤操作:
- 从 Google AI Studio 获取 Gemini API 密钥 (https://makersuite.google.com/app/apikey)
- 在环境变量(比如.env文件)中配置Gemini API 密钥
GEMINI_API_KEY="您的Gemini API密钥"- 在conf.yaml中配置模型
REASONING_MODEL:
model: "gemini/gemini-pro"注意事项:
- 将
YOUR_GEMINI_KEY替换为你实际的 Gemini API 密钥 - 基础 URL 专门配置为通过 DeepManus 的 OpenAI 兼容接口使用 Gemini
- 可用模型包括用于聊天和视觉任务的
gemini-2.0-flash
DeepManus 支持集成 Azure 的模型。您可以参考litellm Azure。conf.yaml配置示例:
REASONING_MODEL:
model: "azure/gpt-4o-2024-08-06"
api_base: $AZURE_API_BASE
api_version: $AZURE_API_VERSION
api_key: $AZURE_API_KEYDeepManus 提供了一个开箱即用的 Web UI 前端项目,您可以通过以下步骤完成部署。请访问 DeepManus Web UI GitHub 仓库 获取更多信息。
首先,确保您已经克隆并安装了 DeepManus 的后端项目。进入后端项目目录并启动服务:
cd DeepManus
make serve默认情况下,DeepManus 后端服务会运行在 http://localhost:8000。
接下来,克隆 DeepManus 的 Web UI 前端项目并安装依赖:
git clone https://github.com/DeepManus/DeepManus-web.git
cd DeepManus-web
pnpm install注意: 如果您尚未安装
pnpm,请先安装它。可以通过以下命令安装:npm install -g pnpm
完成依赖安装后,启动 Web UI 的开发服务器:
pnpm dev默认情况下,DeepManus 的 Web UI 服务会运行在 http://localhost:3000。
DeepManus 使用 browser-use 来实现浏览器相关功能,而 browser-use 是基于 Playwright 构建的。因此,在首次使用前,需要安装 Playwright 的浏览器实例。
uv run playwright install是的,DeepManus 支持使用本地的 Chrome 浏览器作为 Browser Tool。DeepManus 使用 browser-use 来实现浏览器相关功能,而 browser-use 是基于 Playwright 实现的。通过配置 .env 文件中的 CHROME_INSTANCE_PATH,你可以指定本地 Chrome 浏览器的路径,从而实现使用本地浏览器实例的功能。
-
退出所有 Chrome 浏览器进程 在使用本地 Chrome 浏览器之前,确保所有 Chrome 浏览器进程已完全退出。否则,
browser-use无法正常启动浏览器实例。 -
设置
CHROME_INSTANCE_PATH在项目的.env文件中,添加或修改以下配置项:CHROME_INSTANCE_PATH=/path/to/your/chrome将
/path/to/your/chrome替换为本地 Chrome 浏览器的可执行文件路径。例如:- macOS:
/Applications/Google Chrome.app/Contents/MacOS/Google Chrome - Windows:
C:\Program Files\Google\Chrome\Application\chrome.exe - Linux:
/usr/bin/google-chrome
- macOS:
-
启动 DeepManus 启动 DeepManus 后,
browser-use将使用你指定的本地 Chrome 浏览器实例。 -
访问 DeepManus 的 Web UI 由于本地 Chrome 浏览器被
browser-use占用,你需要使用其他浏览器(如 Safari、Mozilla Firefox)访问 DeepManus 的 Web 界面,地址通常为http://localhost:3000。或者,你也可以从另一台计算机上访问 DeepManus 的 Web UI。