免费开源LocalAI本地AI推理服务部署教程,支持GPT模型无GPU运行,NAS极简安装配置帕斯内网穿透远程访问
作者
小编
发布时间

项目介绍
LocalAI 是一个免费开源的 OpenAI 替代方案,它是一个兼容 OpenAI API 规范的本地 AI 推理服务。LocalAI 允许你在本地或私有环境中运行大语言模型(LLM)、生成图像、音频等,支持多种模型系列,无需 GPU 即可运行。它由 Ettore Di Giacinto 创建和维护。
LocalAI 支持多种 AI 后端和加速选项,包括文本生成、语音处理、图像生成等功能。它提供了一个完整的 AI 工具套件,包括 LocalAGI(AI 代理管理平台)和 LocalRecall(知识库管理系统)。项目具有自动后端检测功能,能够自动识别系统的 GPU 能力(NVIDIA、AMD、Intel)并下载相应的后端。
界面美观,支持多种模型格式,可以从 Hugging Face、Ollama 等平台直接下载模型。项目提供了完整的 WebUI 界面,支持聊天、图像生成、音频处理等多种功能。
项目地址: 点我跳转
部署安装
如需在外也打开项目需要配置内网穿透使用,点击前往 帕斯内网穿透,先注册好账号备用。
--- 下面是 docker-compose 的模版
复制下列的配置文件
1services:2 api:3 image: quay.io/go-skynet/local-ai:master4 ports:5 - 8080:80806 environment:7 - MODELS_PATH=/models8 volumes:9 - ./models:/models:cached10 - ./images/:/tmp/generated/images/11 command:12 - phi-2
打开飞牛 NAS 或其他的 NAS 设备

项目名称可以随便填,点击创建 docker-compose.yml

点击 Compose -> 新建项目
这里的配置文件已经包含了基本的设置,其他的保持不变。
如果提示端口被占用可以修改下面的字段,但是需要保持格式正确。
--- 下面是 docker 的模版
打开飞牛 NAS 或其他的 NAS 设备 点击本地镜像-添加镜像-从 URL 添加。这一步先添加 docker 镜像

镜像填 quay.io/go-skynet/local-ai:master 等待下载完成后点击启动按钮启动容器

勾选开机自动启动后下一步,端口设置这里。请设置容器内端口 8080 映射到主机端口 8080(如果端口冲突可以修改主机端口,比如改为 8081:8080,重点是容器内的端口必须是 8080)
存储位置这里,需要创建两个文件夹映射: - 创建一个 models 文件夹映射到容器的 /models 目录(用于存储 AI 模型) - 创建一个 images 文件夹映射到容器的 /tmp/generated/images/ 目录(用于存储生成的图像)
环境变量设置:
必须设置: MODELS_PATH: /models (模型存储路径)
选择设置,可以不填: DEBUG: true (开启调试模式)
其他的都不用填写,直接下一步启动就好了。
创建成功后可以访问 ip:8080 到这里就可以正常显示项目了
穿透公网
打开帕斯内网穿透控制台,点击隧道管理-隧道列表

点击创建新隧道
隧道节点可以随便选,一般选个负载低的就可以

接下来填写信息,隧道名称可以随便填写
本地 IP 默认就可以
传输协议可以选择 TCP 也可以选择 HTTP/HTTPS
HTTP 就是域名的形式,教程以使用 TCP 为演示
本项目中如果没有修改端口的话默认是 8080 端口,这里本地 IP 就填 8080
远程端口可以留空也可以自定义。下图仅做参考,请按照实际项目端口添加。

填写完毕点击确定
点击刚才创建好的隧道,点击获取配置文件

回到飞牛 NAS,点击应用中心下载 frpc 客户端

打开后粘贴刚才复制的配置文件,点击确定即可
复制帕斯内网穿透控制台的访问 IP 和端口
可以看到已经正常穿透成功了
本篇教程结束