
## 🎯 工作流功能
这个工作流为您的n8n工作流中的所有LLM/AI代理使用提供全面的监控和成本追踪。它从任何工作流执行中提取详细的令牌使用数据,并根据当前模型定价计算精确成本。
## 解决的问题
当在n8n工作流中运行LLM节点时,令牌使用情况和中间数据无法在同一工作流中直接访问。此监控工作流通过以下方式弥合了这一差距:
– 使用执行ID检索执行数据
– 从任何嵌套结构中提取所有LLM使用情况
– 使用可自定义定价计算成本
– 提供每个节点和模型的详细分析
⚠️ **警告**:它需要在工作流完全执行后才能工作(即您无法在所有任务完成之前获取此数据)
## ⚙️ 设置说明
### 先决条件
– **所需经验**:基本熟悉n8n LLM节点和AI代理
– **代理配置**:在您监控的工作流中,转到代理设置并启用”返回中间步骤”
– 要获取执行数据,您需要在实例中设置n8n API(免费版本也可用)
### 安装步骤
1. 将此监控工作流导入到您的n8n实例中
2. 转到设置 >> 从左侧栏选择n8n API >> 定义API。现在您可以将其添加为”获取执行”节点的凭据
3. 在”标准化名称”节点中配置您的模型名称映射
4. 在”模型价格”节点中更新模型定价(每100万令牌的价格)
5. 要监控工作流:
– 在目标工作流的末尾添加”执行工作流”节点
– 选择此监控工作流
– **重要**:关闭”等待子工作流完成”
– 将执行ID作为输入传递
## 🔧 自定义
### 当您看到错误时
如果工作流进入错误路径,意味着检测到未定义的模型。只需:
– 将模型名称添加到standardize_names_dic
– 将其定价添加到model_price_dic
– 重新运行工作流
### 可配置元素
– **模型名称映射**:标准化不同的模型名称变体(例如”gpt-4-0613″ → “gpt-4″)
– **定价字典**:为输入/输出设置每百万令牌的成本
– **提取深度**:自动从任何嵌套级别捕获令牌
## 📊 输出数据
### 每个LLM调用
– **成本细分**:提示、完成和总成本(美元)
– **令牌指标**:提示令牌、完成令牌、总令牌
– **性能**:执行时间、开始时间、完成原因
– **内容预览**:输入/输出的前100个字符用于调试
– **模型参数**:温度、最大令牌、超时、重试计数
– **执行上下文**:工作流名称、节点名称、执行状态
– **流程跟踪**:先前节点链
### 摘要统计
– 总执行次数和成本
– 按模型类型细分
– 按节点细分
– 每次调用的平均成本
– 总执行时间
## ✨ 主要优势
– **无外部依赖**:一切都在n8n内部运行
– **通用兼容性**:适用于任何工作流结构
– **自动检测**:无论嵌套如何都能找到LLM使用情况
– **实时监控**:在工作流执行时跟踪成本
– **调试支持**:预览实际提示和响应
– **可扩展**:处理多个模型和复杂工作流
## 📝 示例用例
– **成本优化**:识别昂贵的节点并优化提示
– **使用分析**:跨团队/项目跟踪令牌消耗
– **预算监控**:基于成本阈值设置警报
– **性能分析**:查找运行缓慢的LLM调用
– **调试**:无需日志即可查看实际输入/输出
– **合规性**:审计整个组织的AI使用情况
## 🚀 快速开始
1. 导入工作流
2. 更新模型价格(如果需要)
3. 使用执行工作流节点将监控添加到任何工作流
4. 立即查看详细的成本细分
**注意**:价格按每百万令牌配置。默认包括GPT-4、GPT-3.5、Claude和其他流行模型。根据需要添加自定义模型。

评论(0)