开源AI搜索平台Search4All本地部署教程,智能搜索引擎整合多种LLM模型,配置帕斯内网穿透实现公网访问
作者
小编
发布时间

项目介绍
Search4All 是一个开源的 AI 搜索平台,它将传统搜索引擎与大语言模型完美结合,为用户提供更智能、更准确的搜索体验。该项目基于现代化的技术栈构建,支持多种 LLM 模型(如 OpenAI、Groq、Claude)和多个搜索引擎(Google、Bing、DuckDuckGo、SearXNG)的集成。
与传统搜索引擎不同,Search4All 不仅能够检索信息,还能通过 AI 对搜索结果进行智能分析和总结,提供更有价值的答案。项目具有可定制的美观用户界面,支持搜索结果的分享和缓存功能,大大提升了搜索效率。用户可以获得相关问题推荐,支持连续对话,让搜索体验更加流畅和智能。
该项目完全开源,支持多种部署方式,无论是个人使用还是企业部署都非常便捷。通过整合多个搜索 API 服务,用户可以根据自己的需求选择最适合的搜索后端。
项目地址: 点我跳转
部署安装
如需在外也打开项目需要配置内网穿透使用,点击前往 帕斯内网穿透,先注册好账号备用。
你需要准备一个 OpenAI API Key 和搜索服务的 API Key(推荐使用 Search1API)。项目提供了最简单的 Docker 单命令部署方式,适合技术小白快速上手。
--- 下面是 docker 的模版
打开飞牛 NAS 或其他的 NAS 设备 点击本地镜像-添加镜像-从 URL 添加。这一步先添加 docker 镜像

镜像填 docker.io/fatwang2/search4all
等待下载完成后点击启动按钮启动容器

勾选开机自动启动后下一步,端口设置这里。请设置容器端口 8800 映射到主机端口 8800(如果端口冲突可以修改主机端口,比如改为 8801:8800,但容器内端口必须保持 8800)
存储位置这里,该项目不需要持久化存储,可以跳过此步骤。
环境变量设置:必须设置 - OPENAI_API_KEY:你的 OpenAI API 密钥,格式如 sk-xxx - LLM_MODEL:使用的模型,默认 gpt-3.5-turbo-0125 - BACKEND:搜索后端,推荐 SEARCH1API - SEARCH1API_KEY:Search1API 的密钥
选择设置,可以不填 - OPENAI_BASE_URL:OpenAI API 基础 URL,默认 https://api.openai.com/v1 - RELATED_QUESTIONS:是否显示相关问题,默认 1(显示) - CHAT_HISTORY:是否支持连续对话,默认 1(支持)
其他的都不用填写,直接下一步启动就好了。
创建成功后可以访问 ip:8800 到这里就可以正常显示项目了
穿透公网
打开帕斯内网穿透控制台,点击隧道管理-隧道列表

点击创建新隧道
隧道节点可以随便选,一般选个负载低的就可以

接下来填写信息,隧道名称可以随便填写
本地 IP 默认就可以
传输协议可以选择 TCP 也可以选择 HTTP/HTTPS
HTTP 就是域名的形式,教程以使用 TCP 为演示
本项目中如果没有修改端口的话默认是 8800 端口,这里本地端口就填 8800
远程端口可以留空也可以自定义。下图仅做参考,请按照实际项目端口添加。

填写完毕点击确定
点击刚才创建好的隧道,点击获取配置文件

回到飞牛 NAS,点击应用中心下载 frpc 客户端

打开后粘贴刚才复制的配置文件,点击确定即可
复制帕斯内网穿透控制台的访问 IP 和端口
可以看到已经正常穿透成功了
本篇教程结束