LLM节点是LangChat Pro工作流中的AI大模型节点,提供智能对话和文本生成能力,支持流式输出和上下文管理。
节点特性
LLM节点属于输出节点,具有直接响应用户的能力,同时支持流式输出和变量传递两种模式。输出节点 vs 工具节点
在LangChat Pro工作流中,节点按照输出特性分为两类: 输出节点(直接响应用户):- LLM大模型节点:支持流式输出
- 直接回复节点:输出变量内容
- 搜索节点、知识库检索节点
- 数据处理节点、其他功能节点
执行场景对比
LLM节点
LLM节点集成了多种AI大模型,支持智能对话、文本生成、代码编写等功能。配置参数
输入参数
AI模型:- 支持多种大模型选择
- 包括GPT、Claude、文心一言等
- 通过模型选择器配置
- 支持动态引用流程上下文变量
- 支持静态文本输入
- 支持变量和文本的混合输入
- 通过智能变量选择器配置
- 系统提示词配置
- 用于指导AI回答风格
- 支持多行文本输入
- TEXT:普通文本格式
- JSON:结构化JSON格式
- 影响AI回答的格式约束
- 控制历史消息数量
- 影响AI的上下文理解
- 平衡性能与准确性
- 开启:直接流式输出给用户
- 关闭:输出变量供下游节点使用
输出变量
生成内容:- 数据类型:TEXT文本格式
- 内容:AI生成的回答内容
- 用途:供下游节点引用或直接输出
典型使用场景
场景一:直接问答
适用场景:- 简单的AI问答
- 需要实时流式输出
- 直接响应用户问题
场景二:AI+工具处理
适用场景:- 需要AI分析工具结果
- 结合实时数据和AI推理
- 多步骤的信息处理流程
场景三:变量传递模式
适用场景:- 需要对AI回答进行后处理
- 结合多个AI回答
- 复杂的输出格式化需求
LLM节点是工作流中的核心AI组件,支持流式输出和变量传递两种模式。选择流式输出模式时直接响应用户,选择变量传递模式时供下游节点进一步处理。

