
这个工作流旨在利用Mistral的OCR能力处理PDF文档,将提取的文本存储在Qdrant向量数据库中,并启用检索增强生成(RAG)来回答问题。
## 工作流程概述
一旦配置完成,该工作流可自动化文档摄取、向量化和智能查询,实现强大的RAG应用。
## 主要优势
**端到端自动化**
无需手动交互:文档读取、处理和查询都通过最小化设置自动完成。
**可扩展和模块化**
工作流使用子流程和批处理,易于扩展和定制。
**多模型支持**
结合Mistral进行OCR、OpenAI进行嵌入、Gemini进行智能回答——充分利用每个模型的优势。
**实时问答**
通过RAG集成,用户可以通过自然语言查询文档内容,并获得基于PDF数据的准确响应。
**轻量或完整模式**
用户可以选择索引完整页面内容或仅索引摘要文本,优化性能或丰富度。
## 工作原理
**使用Mistral OCR处理PDF:**
– 工作流开始将PDF文件上传到Mistral的API,执行OCR以提取文本和元数据
– 提取的内容被分割成可管理的块(例如页面或部分)以进行进一步处理
**在Qdrant中进行向量存储:**
– 使用OpenAI的嵌入模型将提取的文本转换为嵌入向量
– 这些嵌入向量存储在Qdrant向量数据库中,实现高效的RAG相似性搜索
**使用RAG进行问答:**
– 当用户通过聊天界面提交问题时,工作流使用向量相似性从Qdrant检索相关文本块
– 语言模型(Google Gemini)基于检索到的上下文生成答案,提供准确且上下文感知的响应
**可选摘要功能:**
– 工作流包括使用Google Gemini的可选摘要步骤,以压缩提取的文本,实现更快的处理或更轻量的RAG使用
## 设置步骤
要在n8n中部署此工作流,请按照以下步骤操作:
**配置Qdrant数据库:**
– 在”创建集合”和”刷新集合”节点中将QDRANTURL和COLLECTION替换为您的Qdrant实例详细信息
– 确保Qdrant集合配置了正确的向量大小(例如,OpenAI嵌入为1536)和距离度量(例如,Cosine)
**设置凭据:**
– 添加以下凭据:
– Mistral Cloud API(用于OCR处理)
– OpenAI API(用于嵌入)
– Google Gemini API(用于聊天和摘要)
– Google Drive(如果从Drive获取PDF)
– Qdrant API(用于向量存储)
**PDF源配置:**
– 如果使用Google Drive,请在”搜索PDF”节点中指定文件夹ID
– 或者,修改工作流以接受来自其他来源的PDF(例如,直接上传或外部API)
**自定义文本处理:**
– 在”Token Splitter”节点中调整块大小和重叠,以优化您的文档类型
– 通过切换”Set page”和”Summarization Chain”节点,为RAG选择原始文本或摘要内容
**测试RAG:**
– 手动或通过聊天消息触发工作流,验证OCR、嵌入和Qdrant存储
– 使用”Question and Answer Chain”节点测试查询响应
**可选子工作流:**
– 工作流支持作为子工作流执行以进行批处理(例如,处理多个PDF)

评论(0)