
检索增强生成(RAG)允许大型语言模型通过从外部向量数据库检索信息来提供上下文感知的答案。在这篇文章中,我们将详细介绍一个完整的n8n工作流,该工作流构建了一个能够使用Pinecone向量数据库和OpenAI模型回答公司政策问题的聊天机器人。
我们的设置包含两个主要部分:
**数据加载到RAG** – 文档(公司政策)从Google Drive摄取,经过处理、嵌入并存储在Pinecone中。
**使用RAG进行数据检索** – 用户查询通过AI代理路由,该代理使用Pinecone检索相关信息并生成精确答案。
## 1. 数据加载到RAG
此工作流部分处理文档摄取。每当有新策略文件上传到Google Drive时,它会自动处理并索引到Pinecone中。
涉及的节点:
– **Google Drive Trigger**
监视Google Drive中的特定文件夹。任何新文件或更新文件都会触发工作流。
– **Google Drive (Download)**
从Google Drive获取文件(例如PDF策略文档)进行处理。
– **Recursive Character Text Splitter**
将长文档分割成较小的块(具有定义的重叠)。这确保嵌入保持上下文丰富且检索有效。
– **Default Data Loader**
读取二进制文档(此设置中的PDF)并提取文本。
– **OpenAI Embeddings**
使用OpenAI的嵌入模型为每个文本块生成高维向量表示。
– **Pinecone Vector Store (Insert Mode)**
将嵌入存储到Pinecone索引(n8ntest)中,在选定的命名空间下。此步骤使策略数据可通过语义相似性进行搜索。
👉 示例流程:当HR将新的在家工作策略PDF上传到Google Drive时,它会自动分割、嵌入并索引到Pinecone中。
## 2. 使用RAG进行数据检索
一旦文档加载到Pinecone中,聊天机器人就可以处理用户查询。工作流的此部分连接聊天界面、AI代理和检索管道。
涉及的节点:
– **When Chat Message Received**
当用户向聊天机器人发送问题时,充当webhook入口点。
– **AI Agent**
核心推理引擎。配置有系统消息,指示其在回答时仅使用Pinecone支持的知识。
– **Simple Memory**
跟踪对话上下文,以便机器人可以处理多轮查询。
– **Vector Store QnA Tool**
查询Pinecone以获取与用户问题最相关的块。在此工作流中,配置为获取公司策略文档。
– **Pinecone Vector Store (Query Mode)**
充当与Pinecone的连接,获取与查询最匹配的嵌入。
– **OpenAI Chat Model**
将检索到的块提炼为自然简洁的答案。模型确保答案基于源材料。
– **Calculator Tool**
如果查询涉及数值推理(例如休假计算或福利金额),则为可选助手。
👉 示例流程:用户询问“每月允许多少天在家工作?”。AI代理通过Vector Store QnA工具查询Pinecone,检索HR策略的相关部分,并返回基于实际文档的简洁答案。
## 总结
通过结合n8n自动化、Pinecone用于向量存储以及OpenAI用于嵌入+LLM推理,我们创建了一个自我更新的RAG聊天机器人。
– 数据加载管道确保上传到Google Drive的每个新公司策略文档立即可用于语义搜索。
– 数据检索管道允许员工提出自然语言问题并获得基于文档的答案。
此设置可以轻松适应其他领域 – 合规手册、税务法规、法律合同,甚至产品文档。

评论(0)