
此工作流演示了一个检索增强生成(RAG)聊天机器人,让您可以使用自然语言与GitHub API规范(文档)进行对话。它使用n8n、OpenAI的LLM和Pinecone向量数据库构建,提供关于如何使用GitHub API的问题的准确且上下文感知的响应。
您可以将其适配到任何公共或私有API的任何OpenAPI规范,从而创建一个公司内任何人都可以使用的文档聊天机器人。
工作原理:
数据摄取:工作流直接从GitHub仓库获取完整的GitHub API OpenAPI 3规范。
分块和嵌入:它将大型API规范分割成更小、可管理的块。然后,OpenAI的嵌入模型为每个块生成向量嵌入,捕获它们的语义含义。
向量数据库存储:这些嵌入以及相应的文本块存储在Pinecone向量数据库中。
聊天界面和查询处理:工作流提供了一个简单的聊天界面。当您提问时,它使用相同的OpenAI模型为您的查询生成嵌入。
语义搜索和检索:查询Pinecone以基于查询嵌入从API规范中找到最相关的文本块。
响应生成:检索到的块和您的原始问题被输入到OpenAI的gpt-4o-mini LLM中,该模型生成简洁、信息丰富且上下文相关的答案,包括适用的代码片段。
设置步骤:
创建账户:您需要OpenAI和Pinecone的账户。
API密钥:获取这两个服务的API密钥。
配置凭据:在您的n8n环境中,使用您的API密钥配置OpenAI和Pinecone的凭据。
导入工作流:将此工作流导入到您的n8n实例中。
Pinecone索引:确保您有一个名为”n8n-demo”的Pinecone索引,或相应地调整工作流。工作流开箱即用地与此索引配合使用。
设置时间:大约15-20分钟。
为什么使用此工作流?
学习RAG实践:这是如何构建RAG驱动的聊天机器人的实用、动手示例。
可适配模板:轻松修改此工作流以为其他API或知识库创建聊天机器人。
n8n简化:了解n8n如何简化数据源、向量数据库和LLM之间的复杂集成。

评论(0)