私有AI笔记管理神器Reor本地部署教程,帕斯内网穿透实现多设备同步访问你的智能知识库
作者
小编
发布时间

根据我获取到的信息,Reor 是一个桌面应用程序,主要通过官方网站下载安装包的方式进行部署,而不是通过 Docker 容器化部署。这是一个基于 Electron 的桌面应用,需要直接安装在操作系统上运行。
让我为您提供正确的部署方式:
项目介绍
Reor 是一个私有且本地运行的 AI 个人知识管理应用。它是一款基于 AI 驱动的桌面笔记应用,能够自动链接相关笔记、回答关于笔记的问题并提供语义搜索功能。所有数据都存储在本地,您可以使用类似 Obsidian 的 Markdown 编辑器来编辑笔记。
该项目的核心理念是 AI 思维工具应该默认在本地运行模型。Reor 基于 Ollama、Transformers.js 和 LanceDB 等优秀项目,实现了 LLM 和嵌入模型的本地运行:
- 您编写的每个笔记都会被分块并嵌入到内部向量数据库中 - 相关笔记通过向量相似性自动连接 - 基于 LLM 的问答功能对您的笔记语料库进行 RAG 检索 - 一切都可以进行语义搜索
界面美观,支持本地 AI 模型,无需依赖外部服务。项目对网络要求很低,所有 AI 处理都在本地完成,保护您的隐私和数据安全。
项目地址: 点我跳转
部署安装
注意:Reor 是一个桌面应用程序,不支持 Docker 部署。需要直接下载安装包进行安装。
方式一:官方下载(推荐)
1. 访问 reorproject.org 或 GitHub Releases
2. 根据您的操作系统下载对应的安装包: - Windows: .exe 安装文件 - macOS: .dmg 安装文件 - Linux: .AppImage 或 .deb 文件
3. 双击安装包按照提示完成安装
4. 启动应用后选择一个目录作为笔记存储位置
方式二:从源码构建
如果您想从源码构建,需要先安装 Node.js:
1# 克隆仓库2git clone https://github.com/reorproject/reor.git34# 进入目录5cd reor67# 安装依赖8npm install910# 开发模式运行11npm run dev1213# 或者构建生产版本14npm run build
配置本地 AI 模型
1. 安装完成后打开 Reor
2. 进入设置 -> Add New Local LLM
3. 输入您想要下载的模型名称(可在 Ollama 模型库 查看可用模型)
4. Reor 会自动下载并配置模型
推荐模型:
- llama3.2:3b - 轻量级模型,适合配置较低的设备 - llama3.2:8b - 平衡性能和质量 - qwen2.5:7b - 中文支持较好的模型
导入现有笔记
如果您有其他笔记应用的数据:
1. 将 Markdown 文件复制到 Reor 选择的目录中
2. 重启 Reor,应用会自动识别并处理这些文件
3. 注意:带有 frontmatter 的 Markdown 文件可能需要手动调整格式
穿透公网
由于 Reor 是桌面应用程序,通常不需要公网访问。如果您需要在多设备间同步笔记,可以:
1. 将笔记目录设置在云盘同步文件夹中(如 OneDrive、Google Drive 等)
2. 使用 Git 仓库管理笔记文件
3. 通过网络共享文件夹的方式在局域网内访问
本篇教程结束