在 Lobe Chat 翻译中使用¶
Lobe Chat 是一个开源的现代设计 AI 聊天框架。 支持多 AI 提供商(OpenAI/Claude 3/Gemini/Ollama/Qwen/DeepSeek)、知识库(文件上传/知识管理/RAG)、多模态(视觉/TTS/插件/艺术品)。一键免费部署您的私有 ChatGPT/Claude 应用。
安装 Lobe Chat¶
您可以参考 Lobe Chat 官方文档下载并安装, Lobe Chat 提供了多种部署安装方式。
本文以 Docker 为例,主要介绍如何使用 d.run 的模型服务。
# lobechat 支持在部署时直接配置 API Key 和 API Host
$ docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \ # 输入您的 API Key
-e OPENAI_PROXY_URL=https://chat.d.run/v1 \ # 输入您的 API Host
-e ENABLED_OLLAMA=0 \
-e ACCESS_CODE=drun \
--name lobe-chat \
lobehub/lobe-chat:latest
配置 Lobe Chat¶
Lobe Chat 也支持在部署后,用户自行去添加模型服务商配置。
添加您从 d.run 获取的 API Key 和 API Host。
- API Key:输入您的 API Key
- API Host:
- MaaS 输入使用
https://chat.d.run
- 独立部署的模型服务,查看模型实例详情,一般是
https://<region>.d.run
- MaaS 输入使用
- 配置自定义模型:如
public/deepseek-r1