本地搭建 ChatGPT 替代方案 Open WebUI 完全离线部署教程,帕斯内网穿透实现公网访问私人 AI 助手
作者
小编
发布时间

项目介绍
Open WebUI 是一个功能丰富、用户友好的自托管 AI 平台,专为完全离线运行而设计。它支持多种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,内置 RAG 推理引擎,是一个强大的 AI 部署解决方案。
这个项目最大的特点是可以让你在本地搭建一个类似 ChatGPT 的 Web 界面,支持与多种大语言模型进行对话。无论是 Ollama 本地模型还是 OpenAI API,都能完美集成。界面美观现代,支持 Markdown 和 LaTeX 渲染,还有语音通话、图像生成、文档检索等高级功能。
项目支持多用户管理、权限控制、移动端适配,甚至可以作为 PWA 应用安装到手机上。对于想要搭建私人 AI 助手或者企业内部 AI 服务的用户来说,这是一个非常优秀的开源解决方案。
项目地址: 点我跳转
部署安装
如需在外也打开项目需要配置内网穿透使用,点击前往 帕斯内网穿透,先注册好账号备用。
复制下列的配置文件
1services:2 ollama:3 volumes:4 - ollama:/root/.ollama5 container_name: ollama6 pull_policy: always7 tty: true8 restart: unless-stopped9 image: ollama/ollama:latest1011 open-webui:12 image: ghcr.io/open-webui/open-webui:main13 container_name: open-webui14 volumes:15 - open-webui:/app/backend/data16 depends_on:17 - ollama18 ports:19 - 3000:808020 environment:21 - 'OLLAMA_BASE_URL=http://ollama:11434'22 - 'WEBUI_SECRET_KEY='23 extra_hosts:24 - host.docker.internal:host-gateway25 restart: unless-stopped2627volumes:28 ollama: {}29 open-webui: {}
打开飞牛 NAS 或其他的 NAS 设备

项目名称可以随便填,点击创建 docker-compose.yml

点击 Compose -> 新建项目
这里可以根据需要修改端口,如果 3000 端口被占用可以修改为其他端口,但需要保持格式正确。WEBUI_SECRET_KEY 可以设置一个随机字符串作为密钥,其他的保持不变。
如果提示端口被占用可以修改下面的字段,但是需要保持格式正确。
创建成功后可以访问 ip:3000 到这里就可以正常显示项目了
穿透公网
打开帕斯内网穿透控制台,点击隧道管理-隧道列表

点击创建新隧道
隧道节点可以随便选,一般选个负载低的就可以

接下来填写信息,隧道名称可以随便填写
本地 IP 默认就可以
传输协议可以选择 TCP 也可以选择 HTTP/HTTPS
HTTP 就是域名的形式,教程以使用 TCP 为演示
本项目中如果没有修改端口的话默认是 3000 端口,这里本地 IP 就填 3000
远程端口可以留空也可以自定义。下图仅做参考,请按照实际项目端口添加。

填写完毕点击确定
点击刚才创建好的隧道,点击获取配置文件

回到飞牛 NAS,点击应用中心下载 frpc 客户端

打开后粘贴刚才复制的配置文件,点击确定即可
复制帕斯内网穿透控制台的访问 IP 和端口
可以看到已经正常穿透成功了
本篇教程结束