自托管私有AI对话平台Open WebUI,Docker极简部署,离线运行完全隐私安全
作者
小编
发布时间

项目介绍
Open WebUI 是一个开箱即用的、功能丰富的自托管 AI 对话平台。它基于现代化的Web技术栈构建,完全离线运行,支持 Ollama、OpenAI 兼容 API 等多种 LLM 运行环境,内置 RAG 检索增强生成引擎,是部署私有 AI 助手的完美解决方案。
无论你是 AI 爱好者还是企业用户,Open WebUI 都能为你提供一个强大而灵活的平台。它支持多模型对话、本地文档 RAG、网页搜索、图像生成、语音视频通话等丰富功能,让你的 AI 交互体验更加生动有趣。最重要的是,所有数据都掌握在自己手中,完全隐私安全。
项目地址: 点我跳转
部署安装
如果你需要在外网也能访问你的 AI 平台,建议配置内网穿透服务。可以前往 帕斯内网穿透 注册账号,这样即使在办公室或出差也能随时访问家里或公司的 Open WebUI。具体的操作步骤可以 点我查看 内网穿透全平台快速入门指南。
Docker 单命令快速部署
Open WebUI 提供了最便捷的 Docker 单命令部署方式,让你几分钟内就能拥有一个完整的 AI 对话平台。
打开你的 NAS 设备或 Linux 服务器
进入 Docker 管理面板,选择'本地镜像',点击'添加镜像',然后选择'从 URL 添加'。
添加镜像
在镜像地址栏中填入:ghcr.io/open-webui/open-webui:main
等待镜像下载完成。如果你的设备配有 NVIDIA GPU 并且安装了 CUDA 支持,也可以使用 ghcr.io/open-webui/open-webui:cuda 获得更好的性能。
启动容器
镜像下载完毕后,点击启动按钮。在启动配置中,勾选'开机自动启动'确保服务永不掉线。
端口配置
在端口映射设置中,将容器内部的 8080 端口映射到主机的 3000 端口(或任何你喜欢的未被占用的端口)。如果你发现 3000 端口已被占用,可以改为其他端口号,比如 3001、3002 等,只需确保格式正确即可。
存储挂载
这一步很重要!你需要创建一个持久化存储卷来保存 Open WebUI 的数据库和配置。在存储挂载部分,添加以下挂载点:
容器路径:/app/backend/data
挂载卷名称:open-webui
这样可以确保即使容器重启,你的所有聊天记录、模型配置和用户数据都不会丢失。
环境变量设置
根据你的使用场景,可以配置以下环境变量:
必须设置(如果你想连接远程 Ollama 或其他 LLM 服务):
OLLAMA_BASE_URL:Ollama 服务的地址,例如 http://192.168.1.100:11434(默认值:http://host.docker.internal:11434)
可选设置(根据需要):
OPENAI_API_KEY:如果你想使用 OpenAI API,填入你的 API 密钥
WEBUI_AUTH_TRUSTED_EMAIL_HEADER:用于企业 SSO 集成
其他变量保持默认即可,直接下一步启动容器。
访问应用
容器启动成功后,在浏览器中访问 http://你的设备IP:3000(如果你修改了端口,请使用修改后的端口号)。首次访问会要求你创建管理员账户,设置好用户名和密码后就可以开始使用了。
到这里,Open WebUI 就已经完全部署完成了!你现在拥有了一个功能完整、隐私安全的私有 AI 对话平台。
总结
Open WebUI 凭借其强大的功能、灵活的部署方式和完全的离线支持,成为了自托管 AI 平台的最佳选择。无论你是想要一个个人 AI 助手,还是为团队部署企业级的 AI 解决方案,Open WebUI 都能满足你的需求。通过简单的 Docker 命令,你就可以在几分钟内拥有一个功能完整的 AI 对话系统。
本篇教程到此结束,祝你使用愉快!