Skip to main content

概述

LangChat Pro 提供「可视化模型配置」,支持多家模型供应商与多类型 AI 能力,配置后即可即时生效,便于在工作流与 Agent 中直接使用。 image-20250914150520273
入口:AI 配置 -> 模型配置

是否需要配置模型BaseUrl

我们放开所有模型配置的BaseUrl参数,但是并不是所有模型都需要配置此参数(除非你非常确认API地址,否则不要随意修改此参数) 在LangChat Pro系统中,内置的SDK有几种厂商:
  • 阿里云dashscope-sdk
  • 百度千帆
  • 智谱sdk
也就是说至少,上面这三种模型厂商,都无需填写 BaseUrl 参数。
但是为什么无需填写你们的系统不隐藏掉此参数?
因为存在一种场景:阿里云分百炼分为了:国内站和国际站,SDK默认使用的国内站点,国际站点则需要设置BaseUrl参数 其他的厂商,特别是私有化的模型,一定需要配置BaseUrl参数。

支持的模型供应商

  • OpenAI
  • 阿里云百炼
  • GiteeAI
  • Xinference
  • Ollama
  • 硅基流动
  • 深度求索
  • 智谱 AI
  • 百度云千帆
  • 火山引擎
如果没有找到适配的供应商,可优先按照 OpenAI 协议进行接入(多数厂商兼容 OpenAI API 规范)。
image-20250922173200238

模型版本选择

若下拉框中没有想要的模型版本:
  1. 在下拉框输入目标模型名称;
  2. 按回车确认;
  3. 将自动选中为自定义输入的版本。

模型类型

LangChat Pro 支持多种模型能力,常见类型如下:
  • 推理模型(聊天对话)
  • 视觉模型(图像理解/识别)
  • 文生图模型(文本生成图像)
  • 语音合成(TTS:文字转语音)
  • 语音识别(ASR:语音转文本)
  • 视频模型(文本生成视频)
  • 重排序模型(RAG 排序)
  • 向量模型(Embedding)
各模型的配置项基本一致。根据供应商要求填写密钥、接口地址、模型名称等信息即可。

向量数据库(RAG)

在 RAG 场景中,向量数据库用于存储文本向量并支持高效检索。LangChat Pro 目前内置以下适配:
  • Redis
  • PgVector
  • Milvus
  • Elasticsearch
选择向量库时可根据数据量规模、性能与维护成本综合评估。