使用n8n、Ollama和Qdrant构建本地RAG管道聊天机器人 - n8n工作流教程
n8n工作流,RAG系统,Ollama,Qdrant,本地AI,PDF问答,语义检索,聊天机器人

## 构建100%本地RAG系统

本工作流使用n8n、Ollama和Qdrant构建一个完全本地的检索增强生成(RAG)系统。这个智能代理利用语义数据库(Qdrant)来回答关于PDF文件的问题。

## 工作原理

构建一个基于您提供文档的聊天机器人(检索增强生成)。您可以向Qdrant数据库上传任意数量的PDF文件。聊天机器人将使用其检索工具获取文档片段,并利用这些片段来回答问题。

## 安装步骤

1. 使用自托管AI入门套件安装n8n + Ollama + Qdrant
2. 确保安装Llama 3.2和mxbai-embed-large作为嵌入模型

## 使用方法

1. 首先运行”数据摄取”部分,上传任意数量的PDF文件
2. 运行聊天机器人,开始询问您上传文档的相关问题

## 工作流节点组成

### 数据摄取部分
– **On form submission**: 表单触发器,用于接收上传的PDF文件
– **Default Data Loader**: 默认数据加载器,处理二进制文件
– **Recursive Character Text Splitter**: 递归字符文本分割器,将文档分割成块
– **Embeddings Ollama**: 使用mxbai-embed-large模型生成嵌入向量
– **Qdrant Vector Store**: 向量存储,将嵌入向量存入Qdrant数据库

### 聊天机器人部分
– **When chat message received**: 聊天消息触发器
– **AI Agent**: AI代理,配置系统消息和工具访问
– **Ollama Chat Model**: Ollama聊天模型
– **Simple Memory**: 简单内存,维护对话上下文
– **Embeddings Ollama1**: 嵌入模型,用于检索
– **Qdrant Vector Store1**: 向量存储检索工具,从语义数据库检索数据

## 技术特点

– **完全本地化**: 所有组件都在本地运行,确保数据隐私
– **语义检索**: 使用Qdrant向量数据库进行高效的语义搜索
– **智能问答**: 基于上传文档的上下文感知问答
– **多文档支持**: 支持上传和处理多个PDF文档
– **记忆功能**: 维护对话历史,提供连贯的交互体验

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。