Skip to main content
LLM节点是LangChat Pro工作流中的AI大模型节点,提供智能对话和文本生成能力,支持流式输出和上下文管理。

节点特性

LLM节点属于输出节点,具有直接响应用户的能力,同时支持流式输出和变量传递两种模式。

输出节点 vs 工具节点

在LangChat Pro工作流中,节点按照输出特性分为两类: 输出节点(直接响应用户):
  • LLM大模型节点:支持流式输出
  • 直接回复节点:输出变量内容
工具节点(上下文变量传递):
  • 搜索节点、知识库检索节点
  • 数据处理节点、其他功能节点
工具型节点不会直接将内容输出给用户,必须通过直接回复节点引用其输出变量才能向用户展示结果。

执行场景对比

LLM节点

LLM节点集成了多种AI大模型,支持智能对话、文本生成、代码编写等功能。

配置参数

输入参数

AI模型
  • 支持多种大模型选择
  • 包括GPT、Claude、文心一言等
  • 通过模型选择器配置
输入内容
  • 支持动态引用流程上下文变量
  • 支持静态文本输入
  • 支持变量和文本的混合输入
  • 通过智能变量选择器配置
提示词
  • 系统提示词配置
  • 用于指导AI回答风格
  • 支持多行文本输入
输出格式
  • TEXT:普通文本格式
  • JSON:结构化JSON格式
  • 影响AI回答的格式约束
上下文条数
  • 控制历史消息数量
  • 影响AI的上下文理解
  • 平衡性能与准确性
流式输出控制
  • 开启:直接流式输出给用户
  • 关闭:输出变量供下游节点使用

输出变量

生成内容
  • 数据类型:TEXT文本格式
  • 内容:AI生成的回答内容
  • 用途:供下游节点引用或直接输出

典型使用场景

场景一:直接问答

适用场景
  • 简单的AI问答
  • 需要实时流式输出
  • 直接响应用户问题

场景二:AI+工具处理

适用场景
  • 需要AI分析工具结果
  • 结合实时数据和AI推理
  • 多步骤的信息处理流程

场景三:变量传递模式

适用场景
  • 需要对AI回答进行后处理
  • 结合多个AI回答
  • 复杂的输出格式化需求
LLM节点是工作流中的核心AI组件,支持流式输出和变量传递两种模式。选择流式输出模式时直接响应用户,选择变量传递模式时供下游节点进一步处理。