无公网自建私人AI助手 Open WebUI离线部署教程,NAS极简搭建多模型对话平台。无公网设置帕斯内网穿透远程访问!
作者
小编
发布时间

项目介绍
Open WebUI 是一个功能丰富、用户友好的自托管 AI 平台,专为完全离线运行而设计。它是一个可扩展的 Web 界面,支持各种 LLM 运行器如 Ollama 和 OpenAI 兼容的 API,内置 RAG 推理引擎,是一个强大的 AI 部署解决方案。
这个项目最大的特点是开箱即用,支持多种 AI 模型同时对话,具有精细的权限控制和用户组管理功能。界面响应式设计,支持桌面和移动设备访问,还提供 PWA 移动端体验。项目支持完整的 Markdown 和 LaTeX 渲染,集成了语音/视频通话功能,支持本地 RAG 文档检索,网页搜索集成,图像生成等强大功能。
无论你是想要搭建私人的 AI 助手,还是为团队部署企业级的 AI 平台,Open WebUI 都能满足你的需求。项目支持多语言界面,具有插件系统,可以通过 Pipelines 框架扩展自定义功能。
项目地址: 点我跳转
部署安装
如需在外也打开项目需要配置内网穿透使用,点击前往 帕斯内网穿透,先注册好账号备用。
复制下列的配置文件
1services:2 ollama:3 volumes:4 - ollama:/root/.ollama5 container_name: ollama6 pull_policy: always7 tty: true8 restart: unless-stopped9 image: ollama/ollama:latest1011 open-webui:12 image: ghcr.io/open-webui/open-webui:main13 container_name: open-webui14 volumes:15 - open-webui:/app/backend/data16 depends_on:17 - ollama18 ports:19 - 3000:808020 environment:21 - 'OLLAMA_BASE_URL=http://ollama:11434'22 - 'WEBUI_SECRET_KEY='23 extra_hosts:24 - host.docker.internal:host-gateway25 restart: unless-stopped2627volumes:28 ollama: {}29 open-webui: {}
打开飞牛 NAS 或其他的 NAS 设备

项目名称可以随便填,点击创建 docker-compose.yml

点击 Compose -> 新建项目
粘贴上面的配置文件,其他的保持不变。
如果提示端口被占用可以修改 3000:8080 中的 3000 为其他端口,但是需要保持格式正确。
创建成功后可以访问 ip:3000 到这里就可以正常显示项目了
穿透公网
打开帕斯内网穿透控制台,点击隧道管理-隧道列表

点击创建新隧道
隧道节点可以随便选,一般选个负载低的就可以

接下来填写信息,隧道名称可以随便填写
本地 IP 默认就可以
传输协议可以选择 TCP 也可以选择 HTTP/HTTPS
HTTP 就是域名的形式,教程以使用 TCP 为演示
本项目中如果没有修改端口的话默认是 3000 端口,这里本地端口就填 3000
远程端口可以留空也可以自定义。下图仅做参考,请按照实际项目端口添加。

填写完毕点击确定
点击刚才创建好的隧道,点击获取配置文件

回到飞牛 NAS,点击应用中心下载 frpc 客户端

打开后粘贴刚才复制的配置文件,点击确定即可
复制帕斯内网穿透控制台的访问 IP 和端口
可以看到已经正常穿透成功了
本篇教程结束