Skip to main content是否需要配置模型BaseUrl
我们放开所有模型配置的BaseUrl参数,但是并不是所有模型都需要配置此参数(除非你非常确认API地址,否则不要随意修改此参数)
在LangChat Pro系统中,内置的SDK有几种厂商:
- 阿里云dashscope-sdk
- 百度千帆
- 智谱sdk
也就是说至少,上面这三种模型厂商,都无需填写 BaseUrl 参数。
但是为什么无需填写你们的系统不隐藏掉此参数?
因为存在一种场景:阿里云分百炼分为了:国内站和国际站,SDK默认使用的国内站点,国际站点则需要设置BaseUrl参数
其他的厂商,特别是私有化的模型,一定需要配置BaseUrl参数。
语音合成模型使用报错
我们目前的系统仅接入了:
但是每个模型都有自己的音色或者其他参数模型配置,特别是对于Xinference这种私有化平台。并且现在厂商的模型都没有一个规范。
举个例子:阿里云语音合成模型 v1 和 v2 版本模型音色配置就不一样且不兼容,如果你集成了v1的模型但用了v2的音色参数,就会导致直接报错。
因此,如果您需要使用此模型,请仔细核对配置参数,而不是随便写一个配置后就开始测试使用
我们测试使用的两个模型:
- 阿里TTS cosyvoice-v1
- 轨迹语音模型 fnlp/MOSS-TTSD-v0.5
视频合成模型使用报错
我们目前的系统仅接入了:
但是每个模型都有自己的视频模型参数配置,且相互没有规范也不兼容,如果选错了配置就会报错。
例如:阿里云视频模型使用的 1024*1024 ,但是火山引擎使用的 1024*1024 ,如果你选错了就会导致报错。
因此在接入之前,你应该仔细核对一下厂商的模型配置。
并且上述提到的这些参数很可能在厂商后续的模型都会改变。