基于Mistral OCR的完整PDF文档RAG系统工作流 | n8n工作流 | AI文档处理
n8n工作流,Mistral OCR,PDF处理,RAG系统,Qdrant向量数据库,OpenAI嵌入,Google Gemini,文档自动化

这个工作流旨在利用Mistral的OCR能力处理PDF文档,将提取的文本存储在Qdrant向量数据库中,并启用检索增强生成(RAG)来回答问题。

## 工作流程概述

一旦配置完成,该工作流可自动化文档摄取、向量化和智能查询,实现强大的RAG应用。

## 主要优势

**端到端自动化**
无需手动交互:文档读取、处理和查询都通过最小化设置自动完成。

**可扩展和模块化**
工作流使用子流程和批处理,易于扩展和定制。

**多模型支持**
结合Mistral进行OCR、OpenAI进行嵌入、Gemini进行智能回答——充分利用每个模型的优势。

**实时问答**
通过RAG集成,用户可以通过自然语言查询文档内容,并获得基于PDF数据的准确响应。

**轻量或完整模式**
用户可以选择索引完整页面内容或仅索引摘要文本,优化性能或丰富度。

## 工作原理

**使用Mistral OCR处理PDF:**
– 工作流开始将PDF文件上传到Mistral的API,执行OCR以提取文本和元数据
– 提取的内容被分割成可管理的块(例如页面或部分)以进行进一步处理

**在Qdrant中进行向量存储:**
– 使用OpenAI的嵌入模型将提取的文本转换为嵌入向量
– 这些嵌入向量存储在Qdrant向量数据库中,实现高效的RAG相似性搜索

**使用RAG进行问答:**
– 当用户通过聊天界面提交问题时,工作流使用向量相似性从Qdrant检索相关文本块
– 语言模型(Google Gemini)基于检索到的上下文生成答案,提供准确且上下文感知的响应

**可选摘要功能:**
– 工作流包括使用Google Gemini的可选摘要步骤,以压缩提取的文本,实现更快的处理或更轻量的RAG使用

## 设置步骤

要在n8n中部署此工作流,请按照以下步骤操作:

**配置Qdrant数据库:**
– 在”创建集合”和”刷新集合”节点中将QDRANTURL和COLLECTION替换为您的Qdrant实例详细信息
– 确保Qdrant集合配置了正确的向量大小(例如,OpenAI嵌入为1536)和距离度量(例如,Cosine)

**设置凭据:**
– 添加以下凭据:
– Mistral Cloud API(用于OCR处理)
– OpenAI API(用于嵌入)
– Google Gemini API(用于聊天和摘要)
– Google Drive(如果从Drive获取PDF)
– Qdrant API(用于向量存储)

**PDF源配置:**
– 如果使用Google Drive,请在”搜索PDF”节点中指定文件夹ID
– 或者,修改工作流以接受来自其他来源的PDF(例如,直接上传或外部API)

**自定义文本处理:**
– 在”Token Splitter”节点中调整块大小和重叠,以优化您的文档类型
– 通过切换”Set page”和”Summarization Chain”节点,为RAG选择原始文本或摘要内容

**测试RAG:**
– 手动或通过聊天消息触发工作流,验证OCR、嵌入和Qdrant存储
– 使用”Question and Answer Chain”节点测试查询响应

**可选子工作流:**
– 工作流支持作为子工作流执行以进行批处理(例如,处理多个PDF)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。