自建AI深度研究助手轻松部署,无公网用帕斯内网穿透实现远程访问智能搜索分析工具
作者
小编
发布时间

项目介绍
Deep Research Web UI 是一个基于 AI 的深度研究工具的 Web 界面,它为 deep-research 项目提供了一个美观易用的前端界面。这个项目专门为需要进行深度研究和信息收集的用户设计,通过 AI 驱动的搜索和分析功能,帮助用户快速获取和整理信息。
该项目具有以下核心特性:安全可靠的本地化配置、实时反馈的 AI 响应流、可视化的搜索过程树状结构、支持多语言搜索、可导出 PDF 格式的研究报告、兼容多种 AI 模型提供商。项目支持 OpenAI、SiliconFlow、DeepSeek、OpenRouter、Ollama 等多种 AI 提供商,以及 Tavily 和 Firecrawl 等网络搜索服务。
界面简洁美观,部署简单,支持服务器模式和客户端模式两种部署方式。服务器模式下管理员可以预配置 API 密钥,用户无需自行配置即可使用;客户端模式下用户可以在浏览器中配置自己的 API 密钥,所有配置都保存在本地。
项目地址: 点我跳转
部署安装
如需在外也打开项目需要配置内网穿透使用,点击前往 帕斯内网穿透,先注册好账号备用。
本项目提供了最简单的 Docker 单命令部署方式,适合技术小白快速上手。项目支持两种模式:服务器模式(推荐)和客户端模式。
打开飞牛 NAS 或其他的 NAS 设备 点击本地镜像-添加镜像-从 URL 添加。这一步先添加 docker 镜像

镜像填 anotia/deep-research-web:latest
等待下载完成后点击启动按钮启动容器

勾选开机自动启动后下一步,端口设置这里。请设置容器端口 3000 映射到主机端口 3000(如果端口冲突可以修改主机端口,比如改为 3001,但容器内端口必须保持 3000)
存储位置这里,本项目不需要持久化存储,可以跳过此步骤。
环境变量设置:
服务器模式(推荐)- 必须设置:
- NUXT_PUBLIC_SERVER_MODE: true (启用服务器模式) - NUXT_AI_API_KEY: 你的AI提供商API密钥 - NUXT_WEB_SEARCH_API_KEY: 你的搜索服务API密钥
可选设置:
- NUXT_PUBLIC_AI_PROVIDER: openai-compatible (AI提供商类型,默认值) - NUXT_PUBLIC_AI_MODEL: gpt-4o-mini (AI模型名称,默认值) - NUXT_PUBLIC_WEB_SEARCH_PROVIDER: tavily (搜索提供商,默认值) - NUXT_PUBLIC_WEB_SEARCH_SEARCH_LANGUAGE: en (搜索语言,可改为 zh 支持中文)
客户端模式(传统模式):
如果不设置服务器模式相关环境变量,项目将以客户端模式运行,用户需要在浏览器中自行配置 API 密钥。
其他的都不用填写,直接下一步启动就好了。
创建成功后可以访问 ip:3000(如果修改了端口请使用对应端口) 到这里就可以正常显示项目了
穿透公网
打开帕斯内网穿透控制台,点击隧道管理-隧道列表

点击创建新隧道
隧道节点可以随便选,一般选个负载低的就可以

接下来填写信息,隧道名称可以随便填写
本地 IP 默认就可以
传输协议可以选择 TCP 也可以选择 HTTP/HTTPS
HTTP 就是域名的形式,教程以使用 TCP 为演示
本项目默认使用 3000 端口,这里本地端口就填 3000
远程端口可以留空也可以自定义。下图仅做参考,请按照实际项目端口添加。

填写完毕点击确定
点击刚才创建好的隧道,点击获取配置文件

回到飞牛 NAS,点击应用中心下载 frpc 客户端

打开后粘贴刚才复制的配置文件,点击确定即可
复制帕斯内网穿透控制台的访问 IP 和端口
可以看到已经正常穿透成功了
本篇教程结束