Skip to main content

是否需要配置模型BaseUrl

我们放开所有模型配置的BaseUrl参数,但是并不是所有模型都需要配置此参数(除非你非常确认API地址,否则不要随意修改此参数) 在LangChat Pro系统中,内置的SDK有几种厂商:
  • 阿里云dashscope-sdk
  • 百度千帆
  • 智谱sdk
也就是说至少,上面这三种模型厂商,都无需填写 BaseUrl 参数。
但是为什么无需填写你们的系统不隐藏掉此参数?
因为存在一种场景:阿里云分百炼分为了:国内站和国际站,SDK默认使用的国内站点,国际站点则需要设置BaseUrl参数 其他的厂商,特别是私有化的模型,一定需要配置BaseUrl参数。

语音合成模型使用报错

我们目前的系统仅接入了:
  • 硅基流动
  • 阿里云百炼
  • Xinference
但是每个模型都有自己的音色或者其他参数模型配置,特别是对于Xinference这种私有化平台。并且现在厂商的模型都没有一个规范。 举个例子:阿里云语音合成模型 v1 和 v2 版本模型音色配置就不一样且不兼容,如果你集成了v1的模型但用了v2的音色参数,就会导致直接报错。 因此,如果您需要使用此模型,请仔细核对配置参数,而不是随便写一个配置后就开始测试使用 我们测试使用的两个模型:
  • 阿里TTS cosyvoice-v1
  • 轨迹语音模型 fnlp/MOSS-TTSD-v0.5

视频合成模型使用报错

我们目前的系统仅接入了:
  • 火山引擎
  • 阿里云百炼
但是每个模型都有自己的视频模型参数配置,且相互没有规范也不兼容,如果选错了配置就会报错。 例如:阿里云视频模型使用的 1024*1024 ,但是火山引擎使用的 1024*1024 ,如果你选错了就会导致报错。 因此在接入之前,你应该仔细核对一下厂商的模型配置。 并且上述提到的这些参数很可能在厂商后续的模型都会改变。