Open WebUI 离线AI平台部署教程,NAS自建ChatGPT替代方案,帕斯内网穿透远程访问配置
作者
小编
发布时间

项目介绍
Open WebUI 是一个功能丰富、用户友好的自托管 AI 平台,专为完全离线运行而设计。它支持多种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,内置 RAG 推理引擎,是一个强大的 AI 部署解决方案。
这个项目最大的特点是可以完全离线运行,支持与 Ollama、OpenAI API 等多种 AI 模型的无缝集成。界面美观现代,支持响应式设计,可在桌面、笔记本和移动设备上完美运行。项目还支持渐进式 Web 应用 (PWA),提供类似原生应用的体验。
Open WebUI 支持完整的 Markdown 和 LaTeX 渲染,具备免提语音/视频通话功能,内置 RAG(检索增强生成)集成,支持网络搜索、图像生成、多模型对话等高级功能。对于企业用户,还提供了基于角色的访问控制 (RBAC)、SCIM 2.0 支持等企业级功能。
项目地址: 点我跳转
部署安装
如需在外也打开项目需要配置内网穿透使用,点击前往 帕斯内网穿透,先注册好账号备用。
打开飞牛 NAS 或其他的 NAS 设备

项目名称可以随便填,点击创建 docker-compose.yml

点击 Compose -> 新建项目
复制下列的配置文件
1services:2 ollama:3 volumes:4 - ollama:/root/.ollama5 container_name: ollama6 pull_policy: always7 tty: true8 restart: unless-stopped9 image: ollama/ollama:latest1011 open-webui:12 image: ghcr.io/open-webui/open-webui:main13 container_name: open-webui14 volumes:15 - open-webui:/app/backend/data16 depends_on:17 - ollama18 ports:19 - 3000:808020 environment:21 - 'OLLAMA_BASE_URL=http://ollama:11434'22 - 'WEBUI_SECRET_KEY='23 extra_hosts:24 - host.docker.internal:host-gateway25 restart: unless-stopped2627volumes:28 ollama: {}29 open-webui: {}
如果提示端口被占用可以修改 3000:8080 中的 3000 为其他端口,但是需要保持格式正确。
创建成功后可以访问 ip:3000 到这里就可以正常显示项目了
穿透公网
打开帕斯内网穿透控制台,点击隧道管理-隧道列表

点击创建新隧道
隧道节点可以随便选,一般选个负载低的就可以

接下来填写信息,隧道名称可以随便填写
本地 IP 默认就可以
传输协议可以选择 TCP 也可以选择 HTTP/HTTPS
HTTP 就是域名的形式,教程以使用 TCP 为演示
本项目中如果没有修改端口的话默认是 3000 端口,这里本地 IP 就填 3000
远程端口可以留空也可以自定义。下图仅做参考,请按照实际项目端口添加。

填写完毕点击确定
点击刚才创建好的隧道,点击获取配置文件

回到飞牛 NAS,点击应用中心下载 frpc 客户端

打开后粘贴刚才复制的配置文件,点击确定即可
复制帕斯内网穿透控制台的访问 IP 和端口
可以看到已经正常穿透成功了
本篇教程结束