
## 概述
这个n8n工作流创建了一个智能聊天代理,能够根据查询的复杂程度进行分类,并将请求路由到合适的LLM:Gemini 2.5 Pro用于复杂任务,OpenAI GPT-4.1 Nano用于简单任务——优化成本和性能。
## 工作流结构
该工作流包含以下节点:
– **When chat message received (Chat Trigger)** – 接收实时聊天消息
– **Model Selector (Agent)** – 分析用户请求并分类查询复杂度
– **Model selector (Model Selector)** – 根据分类结果选择适当的语言模型
– **Main Agent (Agent)** – 使用选定模型生成响应
– **2.5 pro (LM Chat Google Gemini)** – Gemini 2.5 Pro模型,处理复杂任务
– **4.1 nano (LM Chat OpenAI)** – OpenAI GPT-4.1 Nano模型,处理简单任务
– **2.0 flash (LM Chat Google Gemini)** – Gemini 2.0 Flash模型
## 分类规则
– **输出1**:复杂问题,需要深度推理、专业写作、研究、编码或多步骤问题解决
– **输出2**:简单问题,直接、对话性或可以快速回答
## 配置要求
### 必备条件
– 启用LangChain节点的n8n实例
– 访问Google Gemini和OpenAI API
### 所需凭证
– **OpenAI API设置**:在platform.openai.com/api-keys创建密钥
– **Google Gemini API设置**:在makersuite.google.com/app/apikey生成API密钥
## 应用场景
– 客户支持的成本效益AI助手
– 教育机器人的动态查询处理
– 内容工具的优化响应生成
– 研究助手的有效处理
## 故障排除
– 分类错误:优化Model Selector中的提示
– API问题:检查凭证和配额
– 无响应:确保webhook激活,单独测试节点
– 输出解析:验证选择器仅输出1或2

评论(0)