产品概述

LangChat是基于Java生态构建的企业级AIGC(AI Generated Content)应用开发平台,为企业提供完整的AI大模型集成解决方案。可以轻松集成微服务架构设计,支持快速构建智能知识库、多模态AI应用和智能工作流,助力企业实现AI驱动的数字化转型。

商业版咨询微信:LangchainChat (备注公司名称)

商业协议

二次销售第三方无权商用,二次销售第三方无权商用,二次销售第三方无权商用

代码分层架构

LangChat采用分层架构设计,确保整体项目架构的规范性和统一性。通过标准化的模块化设计,支持快速扩展新功能模块和业务场景,同时保持设计语言的一致性。开发者无需关注底层基础设施和基础组件,可以专注于业务逻辑开发,显著提升开发效率。

Java技术栈

基于Spring Boot 3和Vue 3响应式前端框架构建,为企业级AI应用开发提供完整的解决方案。

技术架构优势: — 模块化设计:LangChat基于模块化设计,将核心业务逻辑和基础组件进行分离,确保业务模块的清晰和可扩展性

  • 主流技术栈:基于SpringBoot3、Vue 3作为核心技术栈,提供完整的AI大模型集成解决方案
  • 企业级开发体验:深度集成Java生态系统,提供丰富的中间件支持和标准化的开发规范

Java生态深度整合

  • 标准化开发框架:基于Spring生态体系,提供统一的开发模式和最佳实践
  • 企业级中间件支持:集成主流的企业级中间件,包括消息队列、缓存、数据库等
  • 丰富的扩展能力:支持插件化开发,提供标准化的扩展接口和SDK

开发效率提升:通过标准化的技术栈和丰富的开发工具,显著降低AI应用开发门槛,提升开发团队的生产效率,快速构建企业级智能化应用。

后端技术栈

LangChat后端采用Spring Boot 3作为核心框架,基于JDK 17+ LTS版本开发,具备以下企业级技术特性:

  • 核心框架:Spring Boot 3.x(支持GraalVM原生编译,提升启动性能)
  • 运行环境:JDK 17+ LTS(支持虚拟线程、模式匹配等现代Java特性)
  • 数据存储:MySQL 8.0+(支持JSON数据类型、窗口函数)、Redis 6.0+(支持Stream、模块化架构)
  • ORM框架:MyBatis-Plus 3.5+(提供代码生成器、分页插件、性能分析器)
  • AI集成框架:LangChain4j(提供统一的大模型抽象层、多向量数据库适配、RAG检索增强生成、Function Calling、流式响应处理、多模态AI能力集成)
  • 安全认证:Sa-Token(支持JWT、OAuth2、单点登录、权限细粒度控制)
  • 工具库:Hutool(提供丰富的Java工具类,提升开发效率)
  • 监控体系:集成Micrometer、Prometheus,支持分布式链路追踪

前端技术栈

LangChat前端采用Vue 3 Composition API技术栈,结合现代化前端工程化工具链,提供高性能的企业级用户界面:

  • 核心框架:Vue 3.4+(支持Composition API、Teleport、Suspense等现代特性)
  • 开发语言:TypeScript 5.0+(提供完整的类型安全支持和智能提示)
  • 运行环境:Node.js v22 LTS(支持ES2024特性、性能优化)
  • UI组件库:NaiveUI(提供60+高质量组件,支持主题定制和国际化)
  • 工作流引擎:VueFlow(基于Vue 3的流程图编辑器,支持自定义节点和边)
  • 样式框架:Tailwind CSS 3.4+(原子化CSS,支持JIT编译和响应式设计)
  • 项目脚手架:Vben5(企业级Vue 3项目模板,集成权限管理、多主题等)
  • 状态管理:Pinia(Vue 3官方推荐的状态管理库,支持TypeScript)
  • 构建工具:Vite 5.0+(基于ESBuild的快速构建工具,支持HMR热更新)

硬件要求

生产环境推荐配置

  • CPU:8核心以上(支持Intel/AMD x86_64架构,推荐Intel Xeon或AMD EPYC系列)
  • 内存:16GB以上(推荐32GB,支持JVM堆内存调优,建议配置为物理内存的70-80%)
  • 存储:50GB以上SSD(推荐NVMe SSD,支持数据持久化和日志存储,IOPS > 10000)
  • 网络:千兆网卡(支持高并发API调用,推荐万兆网卡用于大规模部署)
  • 操作系统:CentOS 8+、Ubuntu 20.04+、RHEL 8+、SUSE 15+、Windows Server 2019+
  • 容器化支持:Docker 20.10+、Kubernetes 1.20+、OpenShift 4.8+

性能指标

  • 并发处理能力:支持1000+并发用户,响应时间 < 2秒
  • API吞吐量:支持10000+ QPS,支持水平扩展至更高并发
  • 数据存储能力:支持TB级向量数据存储,支持分布式存储架构
  • 高可用性:99.9%服务可用性,支持集群部署和故障自动切换
  • 无GPU依赖:基于云端大模型API调用,无需本地GPU资源,降低部署成本

模型接入支持

LangChat提供统一的大模型接入抽象层,支持多种模型提供商和部署方式:

1. 国内主流模型服务商

  • DeepSeek:支持DeepSeek-V2、DeepSeek-Coder等系列模型
  • 阿里百炼:集成通义千问系列模型,支持Qwen-Max、Qwen-Plus等
  • 硅基流动:支持硅基系列大语言模型
  • 百度千帆:集成文心一言系列模型,支持ERNIE-Bot等
  • 智谱清言:支持GLM-4、GLM-4V等多模态模型
  • 字节豆包:集成豆包系列模型
  • 零一万物:支持Yi系列开源模型
  • 讯飞星火:集成星火认知大模型

2. 国际主流模型服务商

  • OpenAI:支持GPT-4、GPT-3.5-turbo、DALL-E等系列模型
  • Anthropic:集成Claude-3系列模型
  • Google:支持Gemini Pro、Gemini Ultra等模型
  • Azure OpenAI:企业级OpenAI服务接入

3. 私有化部署模型

  • Ollama:支持本地Ollama服务,可部署Llama2、CodeLlama等开源模型
  • vLLM:高性能推理引擎,支持批量推理和流式输出
  • Xinference:开源模型推理平台,支持多种模型格式
  • GpuStack:开源模型推理平台,支持多种模型格式
  • 自建模型服务:支持通过标准API接入企业自建的大模型服务

产品介绍

LangChat商业版是一个企业级AI应用开发平台,基于主流Java技术栈生态,集成了多种先进的AI技术和开发工具,为企业提供全方位的AI应用开发解决方案。平台采用模块化设计理念,每个模块都经过精心架构和优化,确保功能的完整性、可扩展性和企业级稳定性。

Agent 应用开发

Agent 应用管理

Agent是LangChat的核心技术概念,代表了一个具有特定AI能力的智能体实例。通过Agent应用管理,企业可以快速构建和部署各种智能化应用场景。

核心功能:

  • 多场景应用构建:支持对话式AI(CHAT)、知识库问答助手、数据可视化图表助手等多种应用类型
  • 动态能力配置:支持实时配置模型参数、对话参数、系统提示词、温度参数等关键配置项
  • 多模态交互支持:集成OCR文字识别、TTS语音合成、ASR语音识别、文档解析等多媒体处理能力
  • 流式响应处理:支持实时流式输出,提供更好的用户体验
  • 上下文管理:智能管理对话上下文,支持长对话和会话状态保持

Agent 知识库检索

Agent知识库检索基于RAG(Retrieval-Augmented Generation)技术架构,通过向量数据库检索相关文档片段,为大语言模型提供上下文信息,从而实现精准的智能问答。

核心功能:

  • 向量化检索:基于语义相似度的向量检索算法,支持多种相似度计算方法(余弦相似度、欧几里得距离等)
  • 混合检索策略:结合向量检索和关键词检索,提供更精准的检索结果
  • 检索结果排序:支持基于相关性、时间、权重等多维度的结果排序算法
  • 上下文窗口管理:智能管理检索结果的上下文长度,确保在模型token限制内提供最优信息
  • 检索性能优化:支持检索结果缓存、批量检索、异步检索等性能优化策略

Agent 数据关联

Agent数据关联模块基于企业级集成架构,支持与多种外部数据源和服务的深度集成,扩展Agent的能力边界。

核心功能:

  • 数据表关联:支持关联多种数据库表(MySQL、PostgreSQL、Oracle等),实现实时数据查询和智能分析
  • 知识库关联:支持关联向量知识库,提供基于RAG的智能问答和知识检索能力
  • 插件关联:支持关联自定义插件和第三方服务,通过Function Calling机制扩展AI能力
  • MCP服务关联:支持关联MCP(Model Control Protocol)服务,实现标准化的AI模型控制和服务集成

Workflows 工作流引擎

工作流设计

工作流设计模块基于VueFlow技术栈,提供了企业级的可视化工作流编排界面,支持复杂业务流程的设计和实现。

核心功能:

  • 可视化编排:基于VueFlow的拖拽式工作流设计器,支持节点拖拽、连线、缩放等操作
  • 节点生命周期管理:支持节点的创建、编辑、删除、复制、版本管理等完整生命周期操作
  • 实时测试调试:支持单节点测试运行、断点调试、执行日志查看等调试功能
  • 版本控制:支持工作流版本管理、回滚、分支合并等版本控制功能
  • 性能监控:提供工作流执行性能监控、资源使用统计、执行时间分析等功能

工作流节点

工作流节点模块提供了丰富的节点类型库,满足各种企业级业务场景需求。

核心功能:

  • AI处理节点:支持多种大语言模型调用、向量检索、文本生成、图像处理等AI能力
  • 数据处理节点:Text2SQL转换、数据库CRUD操作、数据清洗、格式转换等数据处理能力
  • 流程控制节点:条件分支、循环控制、并行执行、异常处理等流程控制逻辑
  • 系统集成节点:HTTP API调用、消息队列、邮件发送、企业微信/钉钉推送等系统集成能力
  • 自定义扩展节点:支持插件节点、MCP服务节点、自定义函数节点等扩展能力
  • 数据流转管理:支持节点间数据传递、类型转换、数据验证等数据流转管理功能

工作流多模态节点

工作流多模态节点模块基于多模态处理技术,提供了丰富的多模态处理节点类型库,满足各种企业级业务场景需求。

场景案例:

  • Crawl4ai: Crawl4ai开源爬虫引擎,可以将网页数据抓取为结构化markdown文本
  • JsonPath: 利用JSONPath解析json中的数据
  • LinkParse: 网页链接解析节点,获取文本内容
  • QrCode: 二维码生成节点,将文本转换成二维码
  • Toon: 利用Toon实现JSON的序列化
  • VL视觉模型:利用VL视觉模型,识别图片内容

知识库管理

集成PaddleOCR模型和MinerU模型

集成PaddleOCR模型和MinerU模型,提供基于文本和图片的智能文档处理能力。

PaddleOCR 3.x 核心特色能力:

  • PaddleOCR-VL - 通过 0.9B 超紧凑视觉语言模型增强多语种文档解析:面向文档解析的 SOTA 且资源高效的模型, 支持 109 种语言,在复杂元素(如文本、表格、公式和图表)识别方面表现出色,同时资源消耗极低。

  • PP-OCRv5 — 全场景文字识别,单模型支持五种文字类型(简中、繁中、英文、日文及拼音),精度提升13个百分点。解决多语言混合文档的识别难题。

  • PP-StructureV3 — 复杂文档解析,将复杂PDF和文档图像智能转换为保留原始结构的Markdown文件和JSON文件,在公开评测中领先众多商业方案。完美保持文档版式和层次结构。

  • PP-ChatOCRv4 — 智能信息抽取,原生集成ERNIE 4.5,从海量文档中精准提取关键信息,精度较上一代提升15个百分点。让文档"听懂"您的问题并给出准确答案。

在LangChat Pro中,MarkdownSectionSplitter与MinerU/RapidDoc解析流程无缝衔接,形成了完整的文档处理解决方案:

  1. Gotenberg服务将Office文档转换为高精度PDF
  2. MinerU/RapidDoc将PDF解析为Markdown格式
  3. MarkdownSectionSplitter对解析结果进行智能分段,Markdown为AST(抽象语法树),确保准确识别文档结构和正确处理嵌套元素
  4. 分段后的内容用于向量化解析和知识库构建

知识库配置

知识库配置模块基于企业级向量数据库技术,提供了完整的知识库生命周期管理功能。

核心功能:

  • 智能文档分段:支持基于NLP的语义分段、固定长度分段、段落分段、正则表达式分段等多种分段策略,提供分段效果预览和参数调优
  • 向量数据库配置:支持多种向量数据库(Milvus、Chroma、Qdrant、Weaviate等),提供统一的向量存储和检索接口
  • 检索策略配置:支持配置相似度阈值、检索数量、混合检索权重等检索参数,支持A/B测试和效果评估
  • 增量向量化:支持单个文档片段的增量向量化、重新向量化、禁用/启用等精细化管理操作
  • 多格式文档支持:支持PDF、Word、Excel、PPT、TXT、Markdown等常见文档格式,针对Excel提供专门的表格向量化策略
  • 知识库组织管理:支持文件夹层级管理、标签分类、权限控制等知识库组织功能
  • API服务化:提供RESTful API接口,支持外部系统集成和第三方应用调用
  • 执行监控:提供向量化任务执行日志、性能监控、错误诊断等运维管理功能

LangChat知识库增强

LangChat提供了更多知识库增强功能。

增强功能:

  • 自定义分段策略:支持每个文档自定义文本分段策略
  • 分段数据编辑:支持对已向量化的文本段编辑、修改、删除、重新向量化操作
  • 文档导入:支持 PDF、Word、Excel 等格式

知识检索

知识检索模块提供了高效的向量检索功能。

核心功能:

  • 向量检索:支持相似度检索
  • 检索优化:支持检索参数优化
  • 结果展示:支持检索结果展示

AI 能力矩阵

LangChat提供全面的企业级AI能力矩阵,基于多模态大模型技术架构,涵盖内容生成、智能解析、自然语言处理等多个技术维度,为企业级应用提供强大的AI技术赋能。

多模态生成能力

核心功能:

  • 文生图(Text-to-Image):集成Stable Diffusion、DALL-E、Midjourney等主流图像生成模型,支持高精度图像生成、风格迁移、图像编辑等功能,提供多种图像尺寸和风格选择
  • 文生音频(Text-to-Speech):基于先进的神经网络TTS技术,支持多语言、多音色、多语速的语音合成,提供自然流畅的语音输出和情感表达
  • 文生视频(Text-to-Video):集成视频生成模型,支持文本到视频的转换、视频编辑、风格转换等功能,实现智能视频内容创作
  • 视觉解析(Visual Understanding):基于计算机视觉技术,支持图像内容理解、场景识别、物体检测、OCR文字识别、图像分类等视觉AI能力
  • 智能文档生成:提供基于模板的文档自动生成、富文本编辑、格式转换等功能,支持Word、PDF、Markdown等多种文档格式的智能处理

服务集成

LangChat 封装了一些开源产品的服务集成,提供Docker-Compose脚本一键部署并接入服务。

核心功能:

  • Excalidraw 绘图: 集成 Excalidraw 绘图服务,提供在线绘图和协作功能
  • SearXNG 搜索: 集成 SearXNG 搜索服务,提供开源的搜索引擎
  • Xinference 平台: 集成 Xinference 平台,提供开源的 LLM 服务

MCP 服务集成

LangChat提供强大的MCP(Model Control Protocol)服务集成能力,遵循标准化的AI模型控制协议规范,支持多种接入方式和协议。

LangChat Pro内置200+ MCP资源,提供完整的MCP服务,支持多种接入方式,如HTTP、Stdio、Docker标准输入输出协议。

核心特性:

  • 多协议支持:同时支持HTTP SSE & Streamable和Stdio、Docker标准输入输出协议,满足不同部署场景的接入需求
  • 标准化配置:通过JSON Schema配置方式实现快速接入,支持协议版本管理和向后兼容
  • Java SDK支持:提供完整的Java SDK,支持通过@McpServer@McpTool等注解快速构建MCP服务
  • 工具发现机制:支持动态发现和展示每个MCP Server的Tools列表,提供完整的API文档和参数验证
  • 安全认证:支持OAuth2、API Key等多种认证方式,确保服务调用的安全性
  • 监控与日志:提供完整的调用链路追踪和性能监控,支持错误诊断和性能优化

工作流集成MCP

LangChat Pro 的工作流可以直接使用MCP进行集成,实现LangChat Pro与MCP Server之间的数据交互。

消息渠道集成

LangChat 提供全面的企业级消息渠道集成解决方案,支持多种主流企业协作平台。

核心功能:

  • 企业微信集成:支持企业微信机器人、应用消息、群聊机器人等多种接入方式
  • 钉钉集成:支持钉钉机器人、工作通知、群聊机器人等场景
  • 邮件系统集成:支持 SMTP 协议,实现邮件自动收发和处理
  • 自定义消息模版:支持配置消息模版推送消息

Text2SQL 能力

LangChat Pro 提供强大的 Text2SQL 转换能力,通过创新的自定义DDL技术,实现自然语言到精准SQL的智能转换。

自定义DDL功能

传统Text2SQL方案只能读取原始的英文字段名,AI难以理解业务含义。LangChat Pro创新性地提供了自定义DDL功能,允许用户为表和字段添加中文含义标注,让AI真正理解业务语义。

核心特性:

  • 多数据源支持:支持所有符合 JDBC 协议的数据源接入(MySQL、PostgreSQL、Oracle、SQL Server、国产数据库等)
  • 左右分栏布局:左侧展示原始表DDL,右侧管理自定义DDL,操作直观便捷
  • 智能 DDL 解析:自动获取和解析数据源的完整DDL信息,支持大量表的分页展示
  • 自定义中文标注:为表名和字段添加中文含义和业务说明,让AI准确理解业务语义
  • SQL 生成优化:基于自定义DDL智能生成优化的SQL查询语句,准确率提升至85-95%
  • Agent集成:将自定义DDL引入Agent应用,实现自然语言秒变精准SQL
  • 查询结果处理:支持查询结果的智能处理、格式化和可视化展示

应用价值:

  • 降低数据查询门槛,业务人员无需学习SQL
  • 大幅提升SQL生成准确率,从60-70%提升到85-95%
  • 显著减少技术人员工作量,节省70%以上的数据查询支持工作
  • 加速数据驱动决策,响应速度提升10倍以上

敏感词管理

LangChat 提供强大的敏感词管理能力,支持对敏感词进行管理,并支持对敏感词进行过滤。

核心功能:

  • 敏感词管理:支持敏感词的添加、删除、查询和替换
  • 敏感词过滤:支持对文本内容进行敏感词过滤,并返回过滤后的结果

模型消耗监控

LangChat Pro 提供企业级的模型消耗监控能力,通过ChatListener实时监听机制和多维度统计分析,让企业清晰掌握AI大模型的使用成本,实现精细化的成本管理和优化。

ChatListener监听机制

LangChat Pro封装了ChatListener监听器,能够实时捕获每一次模型调用的Request和Response数据,从请求发起到响应返回,完整记录调用链路,精准统计Token消耗,实时计算费用。

核心特性:

  • 灵活的双重计费模式:支持按Token计费(适用OpenAI、Claude等国际模型)和按次数计费(适用部分国产模型、自建模型),一次配置自动计算
  • 费用总览:提供总费用、总Token消耗、成功率、平均耗时等核心指标,支持环比/同比增长分析
  • 模型维度统计:按模型分组的消耗排行,饼图可视化展示各模型费用占比,快速找出"费用大户"
  • 时间维度统计:按日/周/月的费用趋势图、Token消耗趋势、调用次数趋势,掌握成本变化规律
  • 详细记录表格:每笔调用完整记录,支持按模型、状态、时间、应用、费用区间等多维度筛选,数据可导出用于财务对账
  • 实时监控零延迟:ChatListener采用异步处理,每次调用立即记录,不影响业务性能
  • 精准计费误差为零:精确到0.0001元,基于实际调用数据计算,不是估算而是精准统计

应用价值:

  • 成本透明可控,实时掌握AI模型使用成本,避免预算超支
  • 优化模型选型,基于数据分析发现高成本模型,评估替代方案,节省成本高达75%
  • 及时发现异常,通过趋势分析识别异常调用模式,快速止损
  • 数据驱动决策,丰富的图表展示和多维分析,基于可视化数据优化AI投入产出比

Dify & Coze 集成

LangChat 提供与主流 AI 应用开发平台的深度集成能力。

核心功能:

  • 平台授权管理:支持 Dify、Coze 平台的授权配置和管理
  • 工作流集成:支持快速接入平台的工作流应用
  • 机器人集成:支持接入平台开发的智能机器人
  • 数据同步:支持应用数据的双向同步和更新

自定义插件

LangChat 提供强大的插件扩展能力,基于大模型的 Function Call 机制,实现业务能力的快速集成和扩展。

核心特性:

  • 动态插件构建:支持通过配置方式快速构建 HTTP 插件,无需编写代码
  • 注解式开发:提供 @Tool 注解,支持快速将 Java 方法暴露为插件能力
  • 参数配置:支持灵活配置请求参数、响应格式、错误处理等
  • 插件管理:提供完整的插件生命周期管理,包括创建、测试、发布、监控等

应用场景:

  • 业务系统集成:快速对接企业内部系统
  • 第三方服务调用:集成各类第三方 API 服务
  • 数据处理:实现数据转换、清洗、分析等功能
  • 自动化流程:支持复杂业务流程的自动化处理

模型配置

LangChat 提供全面的模型配置管理能力,支持多种类型 AI 模型的动态配置和灵活切换。

核心特性:

  • 多模态模型支持

    • 推理模型:支持各类大语言模型的接入和配置
    • 视觉模型:支持图像识别、目标检测等视觉任务
    • 文生图模型:支持 阿里、豆包 等图像生成模型
    • 视频模型:支持视频理解、视频生成等能力
    • 语音模型:支持语音识别、语音合成等功能
    • 向量模型:支持文本向量化、语义检索等能力
  • 向量数据库配置

    • 支持多种向量数据库的接入
    • 提供灵活的索引配置
    • 支持数据同步和迁移
  • 动态配置能力

    • 配置即生效:支持模型参数的实时更新
    • 模型测试:提供模型连通性和性能测试
    • 版本管理:支持模型版本的回滚和切换

高精度OCR能力

LangChat集成了基于PaddleOCR的高精度文字识别引擎,提供端到端的图像文字识别解决方案。

核心特性:

  • 多场景识别:支持通用文字、表格、票据、证件等多种场景的文字识别
  • 多语言支持:支持中英文、数字、符号等多语言混合识别
  • 版面分析:智能分析文档版面结构,准确识别文字位置和排版
  • 表格识别:支持复杂表格的自动识别和结构化输出

技术优势:

  • 内置轻量级模型,无需额外配置
  • 支持离线部署,保护数据安全
  • 识别准确率高,支持模糊图片处理
  • 处理速度快,支持批量识别

应用场景:

  • 文档数字化:快速将纸质文档转换为可编辑文本
  • 票据识别:自动识别发票、收据等票据信息
  • 证件识别:支持身份证、营业执照等证件信息提取
  • 表格处理:自动识别和结构化表格数据

应用接入渠道

LangChat提供多种灵活的应用接入方式,满足不同场景下的集成需求。

接入方式:

  1. 独立窗口接入

    • 支持免登录窗口模式
    • 通过Iframe方式快速嵌入
    • 支持自定义窗口样式和主题
    • 适用于需要独立展示的场景
  2. SDK接入

    • 提供标准Web SDK
    • 支持右下角悬浮窗口
    • 支持自定义触发方式
    • 适用于门户网站集成

权限管理

权限管理模块基于RBAC(Role-Based Access Control)权限模型,提供了企业级的安全访问控制体系。

核心功能:

  • 用户生命周期管理:支持用户创建、编辑、禁用、删除等完整生命周期管理,支持批量导入、密码策略、账户锁定等安全策略
  • 角色权限配置:支持多层级角色定义、权限继承、动态权限分配,提供细粒度的功能权限和数据权限控制
  • 菜单权限管理:支持动态菜单配置、权限路由、按钮级权限控制,确保用户只能访问授权的功能模块
  • 组织架构管理:支持多层级部门组织架构、人员归属管理、部门权限继承等企业级组织管理功能
  • 令牌安全管理:支持JWT令牌管理、Token刷新、单点登录、会话管理、安全审计等企业级安全功能
  • 操作审计日志:提供完整的用户操作日志记录、安全事件监控、异常行为检测、合规性审计等安全监控功能
  • 数据权限控制:支持基于部门、角色、用户的数据访问权限控制,确保数据安全和隐私保护

商业协议

二次销售第三方无权商用,二次销售第三方无权商用,二次销售第三方无权商用

1. 授权使用范围 授权用户可无限期在其内部使用和发行LangChat Pro授权源码(企业授权用户不含分公司、子公司及第三方公司;个人授权用户仅可个人使用,不可用于在职公司或任何第三方),并可将其集成至内部应用环境中,拥有对源代码的修改权和定制化开发权。

2. 知识产权保护 授权用户不可向第三方发行或转让授权源码,无论有偿或无偿,也不可申请包含LangChat Pro授权源码的软件著作权。用户可申请基于LangChat Pro进行二次开发的自研部分源码的软件著作权。

3. 项目交付规范 授权用户仅可通过项目形式进行源码的二次开发,完成的定制化软件必须加密打包后才可交付客户。如需交付项目源码,必须为客户购买对应的商业授权许可。

4. 合规使用要求 授权用户不可将LangChat Pro授权源码用于任何违法、违规的活动。一经发现,LangChat Pro将第一时间配合相关部门进行处理,并保留追究法律责任的权利。

5. 技术支持服务 商业版用户享有专业技术支持服务,包括但不限于:技术咨询、问题诊断、性能优化建议、版本升级支持等。支持服务响应时间:工作日8小时内响应,紧急问题4小时内响应。

详细功能清单

功能模块功能清单
开源版开源授权版商业版
探索模块已发布应用管理
Agent应用聊天
Agent应用开发Agent应用管理(基础对话式AI)
多场景应用构建(思维导图应用、ChatBI应用、文档应用、知识库问答助手、数据可视化图表助手)
Agent基础配置(模型参数、对话参数、系统提示词、温度参数)
多模态交互支持(OCR文字识别、TTS语音合成、ASR语音识别、文档解析)
流式响应处理、上下文管理
Agent知识库检索(RAG向量化检索、混合检索策略、检索结果排序)
上下文窗口管理、检索性能优化
Agent动态数据关联:关联数据表(MySQL、PostgreSQL、Oracle等)
Agent动态数据关联:关联向量知识库、关联自定义插件
Agent动态数据关联:关联MCP Server服务
上传文档文件/图片聊天、语音录入
Agent接入渠道配置、对话日志管理、数据监控查看
Workflows工作流引擎可视化工作流编排(基于VueFlow拖拽式设计器)
节点生命周期管理(创建、编辑、删除、复制、版本管理)
实时测试调试(单节点测试、断点调试、执行日志查看)
版本控制(工作流版本管理、回滚、分支合并)
性能监控(执行性能监控、资源使用统计、执行时间分析)
AI处理节点(多种大语言模型调用、向量检索、文本生成、图像处理)
数据处理节点(Text2SQL转换、数据库CRUD、数据清洗、格式转换)
流程控制节点(条件分支、循环控制、并行执行、异常处理)
系统集成节点(HTTP API调用、消息队列、邮件发送、企业微信/钉钉推送)
自定义扩展节点(插件节点、MCP服务节点、自定义函数节点)
工作流接入渠道配置、对话日志管理、数据监控查看
知识库模块知识库管理
集成PaddleOCR、MinerU高精度文档处理引擎
切片管理
切片文本段更新、重新向量化、删除新增文本段
文档导入、文本录入、网页链接导入
自定义文本拆分策略(NLP句子拆分、固定字符拆分、按行/段落拆分、正则拆分)
向量搜索
Text2SQL模块数据源管理(所有支持JDBC协议数据源)
原始表DDL自动获取与分页展示
自定义DDL配置(左右分栏布局)
表名和字段中文含义标注
自然语言转SQL
Agent应用集成Text2SQL数据源
查询结果智能展示与处理
集成模块Dify、Coze授权配置
Dify平台应用、工作流接入
Coze平台应用、工作流接入
AI MCP 模块MCP Server授权配置
MCP JSON快速接入(HTTP、Stdio、Docker)
提供Java模块,通过@McpXxx注解快速构建MCP服务应用
AI 模块AI 绘图(文生图)
AI 音频(文生音频,音频文件合成、TTS)
AI 视频(文生视频,视频文件合成)
AI 视觉(图片内容解析)
AI 写作(文档编辑器文本写作)
自定义插件动态插件构建(通过配置方式快速构建HTTP插件)
注解式开发(@Tool注解快速将Java方法暴露为插件)
参数配置(请求参数、响应格式、错误处理)
插件生命周期管理(创建、测试、发布、监控)
Function Call机制集成
敏感词管理敏感词库管理(添加、删除、查询、替换)
敏感词过滤(实时过滤用户输入和AI输出)
高精度OCR能力多场景识别(通用文字、表格、票据、证件)
多语言支持(中英文、数字、符号混合识别)
版面分析(智能分析文档版面结构)
表格识别(复杂表格自动识别和结构化输出)
PaddleOCR引擎集成(内置轻量级模型、离线部署)
消息渠道配置企业微信集成(机器人、应用消息、群聊)
钉钉集成(机器人、工作通知、群聊)
邮件系统集成(SMTP协议、自动收发)
自定义消息模板
模型配置推理模型配置(各类大语言模型接入)
视觉模型配置(图像识别、目标检测)
文生图模型配置(阿里、豆包等图像生成模型)
视频模型配置(视频理解、视频生成)
语音模型配置(语音识别、语音合成)
向量模型配置(文本向量化、语义检索)
向量数据库配置(Milvus、Chroma、Qdrant、Weaviate)
动态配置能力(实时更新、模型测试、版本管理)
模型连通性和性能测试
模型消耗监控ChatListener实时监听机制
灵活计费模式(按Token计费/按次数计费)
费用总览(总费用、Token消耗、成功率、平均耗时、环比/同比)
模型维度统计(消耗排行、饼图可视化、时间筛选)
时间维度统计(费用/Token/调用次数趋势图)
详细记录表格(多维筛选、数据导出)
实时监控零延迟(异步处理不影响性能)
精准计费(精确到0.0001元)
应用接入渠道独立窗口接入(免登录窗口、Iframe嵌入)
自定义窗口样式和主题
Web SDK接入(右下角悬浮窗口、自定义触发)
RESTful API接口
权限管理模块(RBAC)用户生命周期管理(创建、编辑、禁用、删除、批量导入)
密码策略配置(复杂度、有效期、重试次数、账户锁定)
角色权限配置(多层级角色、权限继承、动态权限分配)
细粒度权限控制(功能权限、数据权限、操作权限、按钮权限)
菜单权限管理(动态菜单配置、权限路由、按钮级权限)
组织架构管理(多层级部门、人员归属、部门权限继承)
令牌安全管理(JWT令牌、Token刷新、单点登录、会话管理)
操作审计日志(用户操作记录、安全事件监控、异常行为检测)
数据权限控制(基于部门、角色、用户的数据访问控制)
合规性审计(日志导出、审计报告生成)
LangChat平台业务端langchat-business-ops业务端封装
完整RBAC权限体系集成
动态权限路由
多租户支持
主题定制、国际化支持
授权支持产品使用文档
商业版产品文档
产品开发文档
版本迭代支持
专属架构师支持
商业授权书