PassNAT LogoPassNAT

DeepSeek-R1本地AI推理模型一键部署教程,Ollama平台支持1.5B-671B多规格模型,帕斯内网穿透远程访问配置

作者

小编

发布时间

Curving abstract shapes with an orange and blue gradient

项目介绍

DeepSeek-R1 是一个强大的开源推理模型,通过 Ollama 平台提供本地部署服务。DeepSeek-R1 在最新的 0528 版本中显著提升了推理和逻辑能力,在数学、编程和通用逻辑等各种基准测试中表现出色,整体性能已接近 O3 和 Gemini 2.5 Pro 等领先模型。

该项目最大的亮点是支持完全本地化部署,无需依赖云端服务,保护用户隐私的同时提供强大的AI推理能力。支持多种模型规格,从轻量级的1.5B参数到超大规模的671B参数模型,满足不同硬件配置和使用需求。

DeepSeek-R1 采用 MIT 许可证,支持商业使用,允许任何修改和衍生作品,包括但不限于蒸馏训练其他大语言模型。通过 Ollama 平台,用户可以轻松管理和运行各种规格的模型。

项目地址: 点我跳转

部署安装

如需在外也打开项目需要配置内网穿透使用,点击前往 帕斯内网穿透,先注册好账号备用。

本项目基于 Ollama 平台,提供了最简单的一键部署方式。我们推荐使用 Docker 方式部署,这是最快速上手的配置方式。

--- Docker 部署方式

打开飞牛 NAS 或其他的 NAS 设备 点击本地镜像-添加镜像-从 URL 添加。这一步先添加 docker 镜像

镜像填 ollama/ollama 等待下载完成后点击启动按钮启动容器

勾选开机自动启动后下一步,端口设置这里。请设置容器端口 11434 映射到主机端口 11434(如果端口冲突可以修改主机端口,比如改为 11435,但容器端口必须保持 11434)

存储位置这里,建议创建一个文件夹用于持久化存储模型数据,将主机目录映射到容器的 /root/.ollama 目录,这样可以避免容器重启后需要重新下载模型。

环境变量设置:可选设置 - OLLAMA_HOST: 设置服务监听地址,默认为 0.0.0.0:11434 - OLLAMA_MODELS: 设置模型存储路径,默认为 /root/.ollama/models - OLLAMA_KEEP_ALIVE: 设置模型保持加载时间,默认为 5m

其他的都不用填写,直接下一步启动就好了。

创建成功后可以访问 http://ip:11434 来验证服务是否正常运行。

接下来需要下载 DeepSeek-R1 模型,可以通过以下命令: - 进入容器终端执行:ollama pull deepseek-r1 (下载默认8B模型) - 或者下载其他规格:ollama pull deepseek-r1:1.5b(1.5B模型) - 大模型:ollama pull deepseek-r1:671b(671B完整模型,需要大量存储空间)

模型下载完成后,可以通过 ollama run deepseek-r1 命令开始对话。

穿透公网

打开帕斯内网穿透控制台,点击隧道管理-隧道列表

点击创建新隧道

隧道节点可以随便选,一般选个负载低的就可以

接下来填写信息,隧道名称可以随便填写

本地 IP 默认就可以

传输协议可以选择 TCP 也可以选择 HTTP/HTTPS

HTTP 就是域名的形式,教程以使用 TCP 为演示

本项目中如果没有修改端口的话默认是 11434 端口,这里本地端口就填 11434

远程端口可以留空也可以自定义。下图仅做参考,请按照实际项目端口添加。

填写完毕点击确定

点击刚才创建好的隧道,点击获取配置文件

回到飞牛 NAS,点击应用中心下载 frpc 客户端

打开后粘贴刚才复制的配置文件,点击确定即可

复制帕斯内网穿透控制台的访问 IP 和端口

可以看到已经正常穿透成功了

本篇教程结束