Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。
项目地址:[链接登录后可见]
使用手册:[链接登录后可见]
使用 ollama 部署本地语言模型:[链接登录后可见]
使用 Docker 安装 Open WebUI 时,请确保 代码登录后可见在 Docker 命令中包含 。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。
仅用于 OpenAI API 使用的安装
安装带有捆绑 Ollama[链接登录后可见]
此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令简化安装。根据您的硬件设置选择适当的命令:
- 使用 GPU 支持:通过运行以下命令来利用 GPU 资源:
代码登录后可见
- 仅适用于 CPU:如果您不使用 GPU,请改用以下命令:
代码登录后可见
我们现在可以输入 代码登录后可见访问了。
故障排除
[链接登录后可见]
打开WebUI:服务器连接错误
如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。使用 代码登录后可见docker 命令中的标志来解决此问题。请注意,端口从 3000 更改为 8080,导致链接:代码登录后可见。
Docker 命令示例:
代码登录后可见
使您的 Docker 安装保持[链接登录后可见]
如果您想将本地 Docker 安装更新到最新版本,可以使用[链接登录后可见]来完成:
代码登录后可见
在命令的最后部分,代码登录后可见如果不同,请替换为您的容器名称。
反向代理
参考教程:[链接登录后可见]
⚠️Nginx Proxy Manager(以下简称NPM)会用到80、443端口,所以本机不能占用(比如原来就有Nginx)
互联网使用请确保完成了域名解析