LocalRAG.AI本地AI助手n8n工作流 - 基于Ollama和Qdrant的私有知识库系统
n8n工作流,LocalRAG.AI,Ollama,Qdrant,AI助手,向量数据库,本地部署,数据隐私

## LocalRAG.AI:基于n8n的本地AI助手工作流

⚠️ **重要提示**:此系统仅适用于自托管的n8n实例,无法在n8n.cloud或其他远程设置中运行。

LocalRAG.AI是一个私有的本地AI助手,它使用您自己的文档来智能回答问题。该系统将LangChain、Ollama、Qdrant和Postgres整合到一个强大的AI管道中——全部在本地运行以确保最大的数据隐私。

### 🔄 工作流程功能

**知识库构建流程:**
– 监控Google Drive文件夹中的新文件或更新文件
– 下载文件并提取文本内容
– 使用本地Ollama模型(如LLaMA 3)生成嵌入向量
– 将嵌入向量存储在Qdrant本地向量数据库中

**聊天交互流程:**
– 使用向量搜索检索相关文档片段
– 结合存储在Postgres中的聊天历史记录
– 通过LangChain AI代理使用本地模型进行响应

### 🛠️ 设置步骤(仅限自托管)

1. 安装并自托管n8n(例如通过Docker)
2. 在本地设置Ollama实例并加载所需的LLM(如llama3)
3. 本地部署Qdrant用于向量存储
4. 连接Postgres数据库存储聊天历史
5. 在n8n中创建并导入工作流
6. 验证Google Drive以监控文件夹
7. 在n8n工作流中连接Ollama、Qdrant、Postgres的凭据
8. 通过Webhook触发器或自定义UI开始聊天

### 🧠 适用场景

– 处理机密数据的研究团队
– 内部文档问答系统
– 不依赖OpenAI或云服务的AI聊天机器人

### 技术节点配置

工作流包含以下关键节点:
– **触发节点**:Google Drive文件创建/更新触发器
– **数据处理节点**:文件下载、文本提取、数据加载器
– **AI处理节点**:Ollama聊天模型、Ollama嵌入向量生成
– **存储节点**:Qdrant向量存储、Postgres聊天内存
– **代理节点**:AI代理、向量存储工具

### 节点详细信息

– **chatTrigger**:接收聊天消息的Webhook触发器
– **agent**:AI代理节点,配置系统提示
– **lmChatOllama**:本地Ollama聊天模型(llama3.2:latest)
– **memoryPostgresChat**:Postgres聊天历史存储
– **vectorStoreQdrant**:Qdrant向量数据库
– **lmOllama**:Ollama语言模型
– **embeddingsOllama**:Ollama嵌入向量生成
– **toolVectorStore**:向量存储问答工具
– **googleDriveTrigger**:Google Drive文件监控
– **set**:文件ID设置
– **googleDrive**:文件下载
– **extractFromFile**:文档文本提取
– **documentDefaultDataLoader**:默认数据加载器
– **textSplitterRecursiveCharacterTextSplitter**:递归字符文本分割器

该工作流实现了完整的本地RAG(检索增强生成)系统,确保数据隐私的同时提供智能问答功能。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。