PassNAT LogoPassNAT

浏览器本地运行大型语言模型 完全隐私AI对话 WebLLM Chat Docker一键部署

作者

小编

发布时间

Curving abstract shapes with an orange and blue gradient

项目介绍

WebLLM Chat 是一款完全运行在浏览器中的私密AI对话平台。它融合了 WebLLM 的强大后端能力与 NextChat 友好的用户界面,通过 WebGPU 技术直接在你的浏览器中本地运行大型语言模型,无需依赖任何云服务或服务器处理。

这是一个开源的、完全隐私保护的AI聊天解决方案。所有对话数据都在你的本地设备上处理,永远不会上传到任何服务器,让你可以放心地与AI进行交互。支持多种内置模型、图像识别、离线使用等功能,是自建AI助手的绝佳选择。

点我跳转

项目地址:

核心特性

🧠 浏览器原生AI:利用WebGPU加速,大型语言模型直接在浏览器中运行

🔒 完全隐私:所有数据处理都在本地进行,对话内容永远不离开你的电脑

📱 离线可用:初次下载后可完全离线运行,无需网络连接

🖼️ 图像识别:支持上传图片进行视觉识别和分析

🎨 美观界面:支持深色模式、Markdown渲染、响应式设计

⚙️ 自定义模型:通过MLC-LLM连接本地自定义模型

🔓 完全开源:可自由定制和部署

部署安装

如需在外网也能访问该项目,建议配置内网穿透服务。推荐使用 帕斯内网穿透,先注册账号备用。详细的跨平台部署指南可以 点击查看

使用 Docker 快速部署

打开你的 NAS 设备或本地服务器的 Docker 管理界面。

第一步:添加镜像

点击'本地镜像' - '添加镜像' - '从 URL 添加',在镜像地址栏填入:

1mlcai/web-llm-chat:latest

等待镜像下载完成。

第二步:启动容器

下载完成后点击启动按钮,进入容器配置界面。

勾选'开机自动启动'确保服务重启后自动运行。

第三步:端口配置

在端口映射设置中,将容器端口 3000 映射到你想要的宿主机端口(默认保持 3000 即可)。如果宿主机的 3000 端口已被占用,可以改为其他端口,如 3001、3002 等,容器内部端口保持不变。

第四步:环境变量配置(可选)

如需配置代理访问,可添加以下环境变量:

环境变量 | 说明 | 示例值 PROXY_URL | 代理服务器地址(可选) | http://localhost:7890

如果代理需要身份验证,使用格式:http://127.0.0.1:7890 user pass

其他环境变量保持默认即可,无需特殊配置。

第五步:完成部署

点击下一步启动容器。启动成功后,在浏览器中访问:

1http://你的IP:3000

即可进入 WebLLM Chat 界面,开始享受本地化的AI对话体验。

使用建议

首次使用时会下载模型文件,请耐心等待

建议使用现代浏览器(Chrome、Edge、Firefox 最新版本)以获得最佳体验

如需使用自定义模型,可通过 MLC-LLM REST API 进行配置

所有对话数据都存储在本地,可放心使用

总结

WebLLM Chat 为你提供了一个完全私密、无云依赖的AI对话平台。通过简单的 Docker 部署,你就可以拥有一个属于自己的、完全离线可用的智能助手。无论是个人使用还是家庭部署,都能获得出色的隐私保护和使用体验。

本篇教程结束