
## 构建100%本地RAG系统
本工作流使用n8n、Ollama和Qdrant构建一个完全本地的检索增强生成(RAG)系统。这个智能代理利用语义数据库(Qdrant)来回答关于PDF文件的问题。
## 工作原理
构建一个基于您提供文档的聊天机器人(检索增强生成)。您可以向Qdrant数据库上传任意数量的PDF文件。聊天机器人将使用其检索工具获取文档片段,并利用这些片段来回答问题。
## 安装步骤
1. 使用自托管AI入门套件安装n8n + Ollama + Qdrant
2. 确保安装Llama 3.2和mxbai-embed-large作为嵌入模型
## 使用方法
1. 首先运行”数据摄取”部分,上传任意数量的PDF文件
2. 运行聊天机器人,开始询问您上传文档的相关问题
## 工作流节点组成
### 数据摄取部分
– **On form submission**: 表单触发器,用于接收上传的PDF文件
– **Default Data Loader**: 默认数据加载器,处理二进制文件
– **Recursive Character Text Splitter**: 递归字符文本分割器,将文档分割成块
– **Embeddings Ollama**: 使用mxbai-embed-large模型生成嵌入向量
– **Qdrant Vector Store**: 向量存储,将嵌入向量存入Qdrant数据库
### 聊天机器人部分
– **When chat message received**: 聊天消息触发器
– **AI Agent**: AI代理,配置系统消息和工具访问
– **Ollama Chat Model**: Ollama聊天模型
– **Simple Memory**: 简单内存,维护对话上下文
– **Embeddings Ollama1**: 嵌入模型,用于检索
– **Qdrant Vector Store1**: 向量存储检索工具,从语义数据库检索数据
## 技术特点
– **完全本地化**: 所有组件都在本地运行,确保数据隐私
– **语义检索**: 使用Qdrant向量数据库进行高效的语义搜索
– **智能问答**: 基于上传文档的上下文感知问答
– **多文档支持**: 支持上传和处理多个PDF文档
– **记忆功能**: 维护对话历史,提供连贯的交互体验

评论(0)