Skip to main content
LangChat Pro home page
Search...
⌘K
白皮书
LangChat Pro
LangChat Pro
Search...
Navigation
AI配置
模型监测
使用文档
开发文档
更新日志
LangChat官网
Github
入门
产品概述
授权协议
快速开始
版本迭代计划
生产环境部署
Docker部署
信创/国产化
文档使用指南
使用教程
基础配置
登录项目
Chat全链路链路监控日志
权限管理
探索
AI配置
模型配置
素材库
提示词库
模型监测
平台集成
敏感词配置
数据源配置
微信消息推送
钉钉消息推送
邮件消息推送
动态插件
工作室
知识库
AI工具集
AI MCP
低代码平台
AI评审平台
Workflows工作流
工作流基础概念
上下文与变量管理
创建新节点
开始结束节点
LLM大模型节点
扩展节点
服务接入
LangChat小组件
服务部署
插件部署
私有化模型部署
常见错误
Python代码怎么执行
模型配置错误
各种缓存报错
前端构建错误
后端构建错误
CentOS7 Glibc 版本过低问题
On this page
概述
AI配置
模型监测
介绍系统中模型监测功能页面
概述
本模块主要通过 ChatLisener 监听模型运行情况,并记录运行结果。
针对 ChatModel EmbeddingModel 等等模型的消耗监控。
注意:在langchain4j中,并不是所有模型(如ImageModel RerankModel)等模型都支持消耗监控。因此有些模型的消耗是记录不到的。
提示词库
平台集成
⌘I