
## 工作流概述
这个n8n工作流实现了一个基于检索增强生成(RAG)的ServiceNow知识库聊天机器人系统。工作流分为两个主要部分:数据摄取流程和RAG聊天机器人流程。
## 数据摄取工作流(左侧面板 – 粉色区域)
这部分负责从ServiceNow知识文章表中收集数据,处理成嵌入向量,并存储在Qdrant向量数据库中。
**执行步骤:**
1. **触发节点:点击’执行工作流’**
– 工作流通过手动点击n8n中的执行工作流按钮启动
2. **获取多个表记录**
– 从ServiceNow知识文章表中获取多条记录
– 每条记录通常包含需要索引的知识文章内容
3. **默认数据加载器**
– 将获取的数据结构化为适合文本分割和嵌入生成的格式
4. **递归字符文本分割器**
– 将大型文本(如长知识文章)分割成较小的可管理块
– 确保每个文本块都能被嵌入模型正确处理
– 配置:块大小500,重叠50
5. **OpenAI嵌入**
– 使用OpenAI的嵌入API将每个文本块转换为高维向量表示
– 这些嵌入对于向量数据库中的语义搜索至关重要
6. **Qdrant向量存储**
– 将生成的嵌入与元数据(如文章ID、标题)一起存储在Qdrant向量数据库中
– 该数据库将在聊天机器人交互期间用于相似性搜索
## RAG聊天机器人工作流(右侧面板 – 绿色区域)
这部分为检索增强生成(RAG)聊天机器人提供动力,从Qdrant检索相关信息并智能响应。
**执行步骤:**
1. **触发节点:当收到聊天消息时**
– 当用户向系统发送聊天消息时启动
– 配置了基本身份验证的webhook
2. **AI代理**
– 作为协调器,结合内存、工具和LLM推理
– 连接到OpenAI聊天模型和Qdrant向量存储
– 系统消息:”你是一个有用的助手。你可以访问一个工具来从语义数据库中检索数据来回答问题。在执行工具时始终提供参数。始终首先使用工具从语义数据库中检索数据,然后提供答案。答案必须具体且基于提供的文章。始终添加对文章及其编号的引用”
3. **OpenAI聊天模型**
– 处理用户消息并生成响应,使用从Qdrant检索的上下文进行丰富
– 使用GPT-4.1-mini模型
4. **简单内存**
– 存储对话历史或上下文,确保多轮对话的连续性
5. **Qdrant向量存储1**
– 使用用户查询对存储的嵌入执行相似性搜索
– 为聊天机器人检索最相关的知识文章块
– 配置:topK为10
6. **OpenAI嵌入1**
– 将用户查询转换为嵌入,用于Qdrant中的向量搜索
## 技术特点
– **双流程架构**:数据摄取和聊天机器人响应分离
– **向量搜索**:基于语义相似性的智能检索
– **上下文记忆**:支持多轮对话
– **工具集成**:AI代理可以调用检索工具
– **安全认证**:webhook配置了基本身份验证
## 应用场景
该工作流适用于企业知识管理、客户支持自动化、内部员工帮助台等场景,能够快速从大量知识库内容中检索相关信息并提供准确的答案。

评论(0)