PassNAT LogoPassNAT

私有AI笔记管理神器Reor本地部署教程,帕斯内网穿透实现多设备同步访问你的智能知识库

作者

小编

发布时间

Curving abstract shapes with an orange and blue gradient

根据我获取到的信息,Reor 是一个桌面应用程序,主要通过官方网站下载安装包的方式进行部署,而不是通过 Docker 容器化部署。这是一个基于 Electron 的桌面应用,需要直接安装在操作系统上运行。

让我为您提供正确的部署方式:

项目介绍

Reor 是一个私有且本地运行的 AI 个人知识管理应用。它是一款基于 AI 驱动的桌面笔记应用,能够自动链接相关笔记、回答关于笔记的问题并提供语义搜索功能。所有数据都存储在本地,您可以使用类似 Obsidian 的 Markdown 编辑器来编辑笔记。

该项目的核心理念是 AI 思维工具应该默认在本地运行模型。Reor 基于 Ollama、Transformers.js 和 LanceDB 等优秀项目,实现了 LLM 和嵌入模型的本地运行:

- 您编写的每个笔记都会被分块并嵌入到内部向量数据库中 - 相关笔记通过向量相似性自动连接 - 基于 LLM 的问答功能对您的笔记语料库进行 RAG 检索 - 一切都可以进行语义搜索

界面美观,支持本地 AI 模型,无需依赖外部服务。项目对网络要求很低,所有 AI 处理都在本地完成,保护您的隐私和数据安全。

项目地址: 点我跳转

部署安装

注意:Reor 是一个桌面应用程序,不支持 Docker 部署。需要直接下载安装包进行安装。

方式一:官方下载(推荐)

1. 访问 reorproject.orgGitHub Releases

2. 根据您的操作系统下载对应的安装包: - Windows: .exe 安装文件 - macOS: .dmg 安装文件 - Linux: .AppImage 或 .deb 文件

3. 双击安装包按照提示完成安装

4. 启动应用后选择一个目录作为笔记存储位置

方式二:从源码构建

如果您想从源码构建,需要先安装 Node.js:

1# 克隆仓库
2git clone https://github.com/reorproject/reor.git
3
4# 进入目录
5cd reor
6
7# 安装依赖
8npm install
9
10# 开发模式运行
11npm run dev
12
13# 或者构建生产版本
14npm run build

配置本地 AI 模型

1. 安装完成后打开 Reor

2. 进入设置 -> Add New Local LLM

3. 输入您想要下载的模型名称(可在 Ollama 模型库 查看可用模型)

4. Reor 会自动下载并配置模型

推荐模型:

- llama3.2:3b - 轻量级模型,适合配置较低的设备 - llama3.2:8b - 平衡性能和质量 - qwen2.5:7b - 中文支持较好的模型

导入现有笔记

如果您有其他笔记应用的数据:

1. 将 Markdown 文件复制到 Reor 选择的目录中

2. 重启 Reor,应用会自动识别并处理这些文件

3. 注意:带有 frontmatter 的 Markdown 文件可能需要手动调整格式

穿透公网

由于 Reor 是桌面应用程序,通常不需要公网访问。如果您需要在多设备间同步笔记,可以:

1. 将笔记目录设置在云盘同步文件夹中(如 OneDrive、Google Drive 等)

2. 使用 Git 仓库管理笔记文件

3. 通过网络共享文件夹的方式在局域网内访问

本篇教程结束