
此工作流展示了如何使用自托管的大型语言模型(LLM)与n8n的LangChain集成,从用户输入中提取个人信息。这在企业环境中特别有用,因为数据隐私至关重要,它允许在本地处理敏感信息。
📖 有关在n8n中使用开源LLM的详细说明和更多见解,请查看我们关于开源LLM的全面指南。
🔑 主要特性
本地LLM
连接Ollama以在本地运行Mistral NeMo LLM
为合规数据处理提供基础,将敏感信息保持在本地
数据提取
将非结构化文本转换为一致的JSON格式
调整JSON架构以满足您的特定数据提取需求
错误处理
实施LLM输出的自动修复
包括用于进一步处理的错误输出
⚙️ 设置和配置
先决条件
已安装n8n AI入门套件
配置步骤
添加带有系统提示的Basic LLM Chain节点
设置具有优化参数的Ollama Chat Model
在Structured Output Parser节点中定义JSON架构
🔍 更多资源
使用n8n本地运行LLM
使用n8n本地AI的视频教程
在您的n8n工作流中应用自托管LLM的强大功能,同时保持对数据处理管道的控制!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

评论(0)