使用n8n连接GitHub免费AI模型到现有工作流 - n8n工作流集成指南
n8n工作流,GitHub AI模型,OpenAI兼容API,AI集成,HTTP Request,Webhook,LLM节点,自动化

这个n8n模板展示了如何将GitHub的免费模型连接到您现有的n8n AI工作流中。

虽然可以使用HTTP节点访问GitHub模型,但此模板的目标是将其与现有的n8n LLM节点一起使用 – 避免了重构的麻烦!

请注意,GitHub声明他们的模型API不适用于生产用途!如果您需要更高的速率限制,您需要使用付费服务。

工作原理
该方法围绕GitHub模型API构建了一个自定义的OpenAI兼容API – 全部在n8n中完成!
首先,我们将一个OpenAI子节点附加到我们的LLM节点,并配置一个新的OpenAI凭据。
在这个新的OpenAI凭据中,我们将”Base URL”更改为指向我们在此模板中准备的n8n webhook。
接下来,我们创建2个webhook,LLM节点现在将尝试连接:”models”和”chat completion”。
“models” webhook简单地调用GitHub模型的”list all models”端点,并将响应重新映射以与我们的LLM节点兼容。
“Chat Completion” webhook对GitHub的Chat Completion端点执行类似的任务。
使用方法
连接后,只需打开聊天并提问!
任何连接到此自定义LLM子节点的LLM或AI代理节点都将向GitHub模型API发送请求。允许您免费试用一系列SOTA模型。
要求
GitHub帐户和访问模型的凭据。如果您之前使用过GitHub节点,可以为此模板重用此凭据。
自定义此工作流
此模板只是一个示例。将自定义OpenAI凭据用于您其他工作流以测试GitHub模型。
参考
https://docs.github.com/en/github-models/prototyping-with-ai-models
https://docs.github.com/en/github-models

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。