
这个n8n模板演示了如何使用OpenAI的Responses API与现有的LLM和AI代理节点进行集成。
虽然建议等待官方支持,但如果您迫不及待想要将OpenAI的Responses API集成到现有的AI工作流中,这个模板一定能满足您的需求!
这种方法使用n8n内置的webhooks为Responses API实现了一个简单的API包装器。当使用自定义OpenAI凭证将基础URL指向这些webhooks时,可以拦截请求并进行兼容性重映射。
工作原理
– 一个OpenAI子节点附加到我们的代理上,但具有特殊的自定义凭证,其中base_url更改为指向此模板的webhooks
– 执行查询时,代理的请求被转发到我们的迷你聊天完成工作流
– 在这里,我们获取默认请求并将值重映射以与设置为查询Responses API的HTTP节点一起使用
– 一旦收到响应,我们需要为Langchain兼容性重映射输出。这意味着LLM或代理节点可以解析它并响应用户
– 有两种响应格式,一种用于流式响应,一种用于非流式响应
使用方法
– 您必须激活此工作流才能使用webhooks
– 按照说明创建自定义OpenAI凭证
– 转到您现有的AI工作流,并用自定义OpenAI凭证替换LLM节点。您不需要将任何其他内容复制到现有模板中
要求
– 用于Responses API的OpenAI账户
自定义此工作流
– 使用相同的技术自由尝试其他LLM!
– 保持对Responses API公告的更新,并根据需要进行修改

评论(0)