Skip to main content
LangChat Pro home page
Search...
⌘K
白皮书
LangChat Pro
LangChat Pro
Search...
Navigation
AI配置
模型监测
使用文档
开发文档
渠道接入
社交登录
Docker服务
更新日志
LangChat官网
Github
入门
产品概述
授权协议
快速开始
版本迭代计划
生产环境部署
Docker部署
信创/国产化
文档使用指南
中间件部署
OSS存储服务
OnlyOffice
SandBox代码执行
使用教程
基础配置
登录项目
链路监控
权限管理
探索
AI配置
模型配置
素材库
提示词库
模型监测
平台集成
敏感词配置
数据源配置
微信消息推送
钉钉消息推送
邮件消息推送
动态插件
工作室
知识库
AI工具集
AI MCP
低代码平台
AI评审平台
Workflows工作流
工作流基础概念
上下文与变量管理
创建工作流节点
特殊节点
AI能力节点
多模态节点
工具节点
消息推送节点
服务部署
插件部署
私有化模型部署
常见错误
TTS不可用
模型配置错误
各种缓存报错
前端构建错误
后端构建错误
CentOS7 Glibc 版本过低问题
On this page
概述
AI配置
模型监测
介绍系统中模型监测功能页面
概述
本模块主要通过 ChatLisener 监听模型运行情况,并记录运行结果。
针对 ChatModel EmbeddingModel 等等模型的消耗监控。
注意:在langchain4j中,并不是所有模型(如ImageModel RerankModel)等模型都支持消耗监控。因此有些模型的消耗是记录不到的。
提示词库
平台集成
⌘I