logo
LangChat 文档
LangChat 产品白皮书

全面的企业级 AIGC 平台解决方案指南

产品概述

LangChat是基于Java生态构建的企业级AIGC(AI Generated Content)应用开发平台,为企业提供完整的AI大模型集成解决方案。可以轻松集成微服务架构设计,支持快速构建智能知识库、多模态AI应用和智能工作流,助力企业实现AI驱动的数字化转型。

商业版咨询微信:LangchainChat (备注公司名称)

商业协议

二次销售第三方无权商用,二次销售第三方无权商用,二次销售第三方无权商用

授权场景案例

❗️授权遵守的原则:不可传递授权,即 A 为授权主体,商用给了 B 其中 B 是可以自用的,但是❌️不享受商用能力【B为非授权主体】需获取官方授权后✅️可商用。

  1. 场景案例一:

在这个场景中,假设软件开发公司(授权单位[1])开发了一个用于数据处理的软件,并授权给客户公司(客户[2])使用。根据授权协议,客户公司可以使用可运行的jar文件或镜像来部署和运行该软件。然而,如果客户公司需要访问源代码,他们必须重新向软件开发公司购买授权。一旦他们获得源代码,他们可以用于内部目的,但不能进行二次开发或修改并将其用于商业目的。如果客户公司修改了源代码并打算将其用于商业用途,他们必须重新购买授权。

  1. 场景案例二:

在这个场景中,假设软件服务提供商(授权单位[1])提供一种用于云存储的软件服务,并将其授权给云服务提供商(客户[2])。根据授权协议,云服务提供商可以使用可运行的jar文件或镜像来在其云平台上提供该服务。然而,如果云服务提供商需要访问源代码以进行定制或优化,他们必须重新向软件服务提供商购买授权。在获得源代码后,云服务提供商可以进行必要的修改,但不能将修改后的代码用于商业目的,除非他们重新购买了授权。

  1. 场景案例三:

在这个场景中,假设一个开源软件项目的维护者(授权单位[1])授权给一家IT咨询公司(客户[2]),该公司希望在其客户项目中使用该软件。根据授权协议,IT咨询公司可以使用可运行的jar文件或镜像来集成该开源软件到他们的项目中。然而,如果该公司需要对软件进行定制以满足其客户的特定需求,他们必须重新向软件维护者购买授权以获取源代码。一旦获得源代码,IT咨询公司可以根据需要进行修改,但不能将修改后的代码用于商业目的,除非他们重新购买了授权。

代码分层架构

LangChat采用分层架构设计,确保整体项目架构的规范性和统一性。通过标准化的模块化设计,支持快速扩展新功能模块和业务场景,同时保持设计语言的一致性。开发者无需关注底层基础设施和基础组件,可以专注于业务逻辑开发,显著提升开发效率。

Java技术栈

基于Spring Boot 3和Vue 3响应式前端框架构建,为企业级AI应用开发提供完整的解决方案。

技术架构优势

  • 模块化设计:LangChat基于模块化设计,将核心业务逻辑和基础组件进行分离,确保业务模块的清晰和可扩展性
  • 主流技术栈:基于SpringBoot3、Vue 3作为核心技术栈,提供完整的AI大模型集成解决方案
  • 企业级开发体验:深度集成Java生态系统,提供丰富的中间件支持和标准化的开发规范

Java生态深度整合

  • 标准化开发框架:基于Spring生态体系,提供统一的开发模式和最佳实践
  • 企业级中间件支持:集成主流的企业级中间件,包括缓存、数据库等

开发效率提升:通过标准化的技术栈和丰富的开发工具,显著降低AI应用开发门槛,提升开发团队的生产效率,快速构建企业级智能化应用。

后端技术栈

LangChat后端采用Spring Boot 3作为核心框架,基于JDK 17+ LTS版本开发,具备以下企业级技术特性:

  • 核心框架:Spring Boot 3.x
  • 运行环境:JDK 17+ LTS
  • 数据存储:MySQL 8.0+
  • ORM框架:MyBatis-Plus 3.5+
  • AI集成框架:LangChain4j(提供统一的大模型抽象层、多向量数据库适配、RAG检索增强生成、Function Calling、流式响应处理、多模态AI能力集成)
  • 安全认证:Sa-Token(支持JWT、OAuth2、权限细粒度控制)
  • 工具库:Hutool(提供丰富的Java工具类,提升开发效率)

前端技术栈

LangChat前端采用Vue 3 Composition API技术栈,结合现代化前端工程化工具链,提供高性能的企业级用户界面:

  • 核心框架:Vue 3.4+(支持Composition API、Teleport、Suspense等现代特性∂)
  • 开发语言:TypeScript 5.0+(提供完整的类型安全支持和智能提示)
  • 运行环境:Node.js v22 LTS(支持ES2024特性、性能优化)
  • UI组件库:NaiveUI(提供60+高质量组件,支持主题定制和国际化)
  • 工作流前端:VueFlow(基于Vue 3的流程图编辑器,支持自定义节点和边)
  • 样式框架:Tailwind CSS 3.4+(原子化CSS,支持JIT编译和响应式设计)
  • 构建工具:Vite 5.0+(基于ESBuild的快速构建工具,支持HMR热更新)

硬件要求

生产环境推荐配置

  • CPU:8核心以上(支持Intel/AMD x86_64架构,推荐Intel Xeon或AMD EPYC系列)
  • 内存:16GB以上(推荐32GB,支持JVM堆内存调优,建议配置为物理内存的70-80%)
  • 存储:50GB以上SSD(推荐NVMe SSD,支持数据持久化和日志存储,IOPS > 10000)
  • 操作系统:CentOS 8+、Ubuntu 20.04+、RHEL 8+、SUSE 15+、Windows Server 2019+
  • 容器化支持:Docker 20.10+、Kubernetes 1.20+、OpenShift 4.8+
  • 无GPU依赖:基于云端大模型API调用,无需本地GPU资源,降低部署成本

模型接入支持

LangChat提供统一的大模型接入抽象层,支持多种模型提供商和部署方式:

1. 国内主流模型服务商

  • DeepSeek:支持DeepSeek-R1、DeepSeek-Coder等系列模型
  • 阿里百炼:集成通义千问系列模型,支持Qwen-Max、Qwen-3等
  • 硅基流动:支持硅基系列大语言模型
  • 百度千帆:集成文心一言系列模型,支持ERNIE-Bot等
  • 智谱清言:支持GLM-4、GLM-4V等多模态模型
  • 字节豆包:集成豆包系列模型

2. 国际主流模型服务商

  • OpenAI:支持GPT-4、GPT-3.5-turbo、DALL-E等系列模型
  • Google:支持Gemini等模型
  • Azure OpenAI:企业级OpenAI服务接入

3. 私有化部署模型

  • Ollama:支持本地Ollama服务,可部署Llama2、Qwen等开源模型
  • vLLM:高性能推理引擎,支持批量推理和流式输出
  • Xinference:开源模型推理平台,支持多种模型格式
  • GpuStack:开源模型推理平台,支持多种模型格式

国产化/信创支持

LangChat 基于纯 Java 生态构建,深度支持国产化软硬件环境,满足企业信创需求。

核心特性:

  • 跨平台部署:基于 Spring Boot 3 开发,原生支持国产化 CPU 架构(如飞腾、龙芯、海光等)
  • 容器化支持:完全支持 Kubernetes 和 Docker 部署,适配国产容器平台
  • GPU 加速:支持国产化 GPU(如华为昇腾等)部署,满足 AI 推理加速需求

数据库兼容性:

LangChat 采用标准化 JDBC 接口,支持无缝更换为国产信创数据库,目前支持:

主流数据库:

  • MySQL、PostgreSQL、Oracle、SQL Server、MariaDB
  • OceanBase、GaussDB、ClickHouse、H2、DB2

国产信创数据库:

  • 达梦数据库
  • 人大金仓
  • 南大通用
  • 瀚高数据库
  • 神舟通用
  • 虚谷数据库
  • 优炫数据库
  • 星瑞格数据库
  • Vastbase
  • GoldenDB

其他数据库:

  • SQLite、Phoenix、Sybase、Firebird、Cubird、Goldilocks、Informix、TDengine、RedShift、Derby、DuckDB

技术优势:

  • 零代码修改:通过 MyBatis-Plus 动态数据源配置,实现数据库无缝切换
  • 完整支持:所有功能模块(Agent、工作流、知识库等)均兼容国产数据库
  • 稳定可靠:经过实际项目验证,确保在国产环境下的稳定运行

产品介绍

LangChat商业版是一个企业级AI应用开发平台,基于主流Java技术栈生态,集成了多种先进的AI技术和开发工具,为企业提供全方位的AI应用开发解决方案。平台采用模块化设计理念,每个模块都经过精心架构和优化,确保功能的完整性、可扩展性和企业级稳定性。

Agent 应用开发

Agent 应用管理

Agent是LangChat的核心技术概念,代表了一个具有特定AI能力的智能体实例。通过Agent应用管理,企业可以快速构建和部署各种智能化应用场景。

核心功能:

  • 多场景应用构建:支持对话式AI(CHAT)、知识库问答助手、数据可视化图表助手等多种应用类型
  • 动态能力配置:支持实时配置模型参数、对话参数、系统提示词、温度参数等关键配置项
  • 多模态交互支持:集成OCR文字识别、TTS语音合成、文档解析等多媒体处理能力
  • 流式响应处理:支持实时流式输出,提供更好的用户体验
  • 上下文管理:智能管理对话上下文,支持长对话和会话状态保持

Agent 知识库检索

Agent知识库检索基于RAG(Retrieval-Augmented Generation)技术架构,通过向量数据库检索相关文档片段,为大语言模型提供上下文信息,从而实现精准的智能问答。

核心功能:

  • 向量化检索:基于语义相似度的向量检索算法
  • 检索结果排序:支持基于相关性、Rerank的结果排序

Agent 数据关联

Agent数据关联模块基于企业级集成架构,支持与多种外部数据源和服务的深度集成,扩展Agent的能力边界。

核心功能:

  • 数据表关联:支持关联多种数据库表(MySQL、PostgreSQL、Oracle等),实现实时数据查询和智能分析
  • 知识库关联:支持关联向量知识库,提供基于RAG的智能问答和知识检索能力
  • 插件关联:支持关联自定义插件和第三方服务,通过Function Calling机制扩展AI能力
  • MCP服务关联:支持关联MCP(Model Control Protocol)服务,实现标准化的AI模型控制和服务集成

Workflows 工作流引擎

工作流设计

工作流引擎基于Java轻量级状态机实现节点流转逻辑,前端采用VueFlow技术栈提供企业级可视化编排界面,支持复杂业务流程的设计和实现。

核心功能:

  • 可视化编排:基于VueFlow的拖拽式工作流设计器,支持节点拖拽、连线、缩放等操作
  • 状态机引擎:采用Java轻量级状态机管理节点流转,确保工作流执行的稳定性和可靠性
  • 日志监控:支持查看工作流执行的详细节点日志

工作流节点

工作流节点模块提供了丰富的节点类型库,涵盖AI能力、数据处理、系统集成、多模态等多个维度,满足各种企业级业务场景需求。

AI能力节点

  • LLM:使用AI大模型对话或生成文本
  • 参数提取器:利用LLM从自然语言推理并提取结构化参数
  • 意图识别:动态识别用户意图
  • 知识库检索:从向量数据库搜索相关文本片段
  • OCR解析:利用PaddleOCR高精度模型识别图片文字内容
  • 判断节点:根据条件执行不同分支

输入输出节点

  • 直接回复:输出指定内容,用于引导和提示
  • 备注信息:自定义添加注释说明

多模态节点

  • 图片生成:利用文生图模型生成图片
  • 图片识别:利用视觉模型识别图片内容
  • 文本转语音:合成语音文件
  • EChart图表生成:生成柱状图、折线图、饼图等
  • 时序图生成:利用Mermaid生成时序图表
  • 思维导图生成:渲染思维导图
  • 词云图生成:提取关键词生成词云图片
  • AI PPT信息图生成:抽取关键信息生成专业信息图

外部服务节点

  • Crawl4ai/Firecrawl:网页爬取和数据抓取
  • Gotenberg:文档转换(Office转PDF等)
  • MinerU:PDF文档解析和内容提取
  • SearXNG搜索:调用搜索引擎
  • Toon:JSON数据序列化

工具节点

  • 百度搜索:调用百度搜索引擎
  • 代码执行:执行JavaScript代码
  • 获取当前时间:获取用户当前时区时间
  • 数据库:自定义SQL查询数据库
  • 头条热搜:获取今日热搜信息
  • 网页解析:解析网页链接文本内容
  • 文档解析:解析文档返回文本内容
  • HTTP请求:发送HTTP请求
  • Text2SQL:自然语言生成查询SQL
  • 二维码生成:文本转换二维码图片
  • 敏感词过滤:过滤敏感词数据
  • 正则表达式:提取指定内容
  • JSON修复:修复JSON错误格式
  • JSONPath提取:提取JSON指定key值

消息推送节点

  • 钉钉消息:调用钉钉机器人推送
  • 企微消息:调用企微机器人推送
  • 邮件消息:发送邮件到指定账户

扩展节点

  • MCP节点:将自定义MCP作为工作流节点运行
  • 插件节点:将自定义插件(FunctionCall)作为工作流节点运行
  • Dify/Coze节点:将Dify、Coze平台AI能力作为工作流节点运行

知识库管理

集成PaddleOCR模型和MinerU模型

集成PaddleOCR模型和MinerU模型,提供基于文本和图片的智能文档处理能力。

PaddleOCR 3.x 核心特色能力:

  • PaddleOCR-VL - 通过 0.9B 超紧凑视觉语言模型增强多语种文档解析:面向文档解析的 SOTA 且资源高效的模型, 支持 109 种语言,在复杂元素(如文本、表格、公式和图表)识别方面表现出色,同时资源消耗极低。

  • PP-OCRv5 — 全场景文字识别,单模型支持五种文字类型(简中、繁中、英文、日文及拼音),精度提升13个百分点。解决多语言混合文档的识别难题。

  • PP-StructureV3 — 复杂文档解析,将复杂PDF和文档图像智能转换为保留原始结构的Markdown文件和JSON文件,在公开评测中领先众多商业方案。完美保持文档版式和层次结构。

  • PP-ChatOCRv4 — 智能信息抽取,原生集成ERNIE 4.5,从海量文档中精准提取关键信息,精度较上一代提升15个百分点。让文档"听懂"您的问题并给出准确答案。

在LangChat Pro中,MarkdownSectionSplitter与MinerU/RapidDoc解析流程无缝衔接,形成了完整的文档处理解决方案:

  1. Gotenberg服务将Office文档转换为高精度PDF
  2. MinerU/RapidDoc将PDF解析为Markdown格式
  3. MarkdownSectionSplitter对解析结果进行智能分段,Markdown为AST(抽象语法树),确保准确识别文档结构和正确处理嵌套元素
  4. 分段后的内容用于向量化解析和知识库构建

知识库配置

知识库配置模块基于企业级向量数据库技术,提供了完整的知识库生命周期管理功能。

核心功能:

  • 智能文档分段:支持基于NLP的语义分段、固定长度分段、段落分段、正则表达式分段等多种分段策略,提供分段效果预览和参数调优
  • 向量数据库配置:支持多种向量数据库(Milvus、Redis、Elasticsearch、PGVector等),提供统一的向量存储和检索接口
  • 检索策略配置:支持配置相似度阈值、检索数量等检索参数
  • 增量向量化:支持单个文档片段的增量向量化、重新向量化、禁用/启用等精细化管理操作
  • 多格式文档支持:支持PDF、Word、Excel、PPT、TXT、Markdown等常见文档格式,针对Excel提供专门的表格向量化策略
  • 知识库组织管理:支持文件夹层级管理、标签分类、权限控制等知识库组织功能
  • API服务化:提供RESTful API接口,支持外部系统集成和第三方应用调用
  • 执行监控:提供向量化任务执行日志等运维管理功能

LangChat知识库增强

LangChat提供了更多知识库增强功能。

增强功能:

  • 自定义分段策略:支持每个文档自定义文本分段策略
  • 分段数据编辑:支持对已向量化的文本段编辑、修改、删除、重新向量化操作
  • 文档导入:支持 PDF、Word、Excel 等格式

知识检索

知识检索模块提供了高效的向量检索功能。

核心功能:

  • 向量检索:支持相似度检索
  • 检索优化:支持检索参数优化
  • 结果展示:支持检索结果展示

AI 能力矩阵

LangChat提供全面的企业级AI能力矩阵,基于多模态大模型技术架构,涵盖内容生成、智能解析、自然语言处理等多个技术维度,为企业级应用提供强大的AI技术赋能。

多模态生成能力

核心功能:

  • 文生图(Text-to-Image):集成Qwen-Image、豆包等主流图像生成模型,提供多种图像尺寸和风格选择
  • 文生音频(Text-to-Speech):支持多语言、多音色、多语速的语音合成,提供自然流畅的语音输出和情感表达
  • 文生视频(Text-to-Video):集成视频生成模型,支持文本到视频的转换等功能
  • 视觉解析(Visual Understanding):支持图像内容理解、场景识别、OCR文字识别、图像分类等视觉AI能力
  • 智能文档生成:提供基于模板的文档自动生成、富文本编辑

服务集成

LangChat 封装了一些开源产品的服务集成,提供Docker-Compose脚本一键部署并接入服务。

核心功能:

  • Excalidraw 绘图: 集成 Excalidraw 绘图服务,提供在线绘图和协作功能
  • SearXNG 搜索: 集成 SearXNG 搜索服务,提供开源的搜索引擎
  • Xinference 平台: 集成 Xinference 平台,提供开源的 LLM 服务

MCP 服务集成

LangChat提供强大的MCP(Model Control Protocol)服务集成能力,遵循标准化的AI模型控制协议规范,支持多种接入方式和协议。

LangChat Pro内置200+ MCP资源,提供完整的MCP服务,支持多种接入方式,如HTTP、Stdio、Docker标准输入输出协议。

核心特性:

  • 多协议支持:同时支持HTTP SSE & Streamable和Stdio、Docker标准输入输出协议,满足不同部署场景的接入需求
  • 标准化配置:通过JSON Schema配置方式实现快速接入,支持协议版本管理和向后兼容
  • Java SDK支持:提供完整的Java SDK,支持通过@McpServer@McpTool等注解快速构建MCP服务
  • 工具发现机制:支持动态发现和展示每个MCP Server的Tools列表,提供完整的API文档和参数验证

工作流集成MCP

LangChat Pro 的工作流可以直接使用MCP进行集成,实现LangChat Pro与MCP Server之间的数据交互。

数据权限

LangChat Pro 提供了数据权限功能,支持对用户、角色、部门、数据进行权限控制。

LangChat Pro对核心业务数据实施精细化权限管理,采用"默认私有 + 按需授权"的隔离模式。 当需要跨用户协作时,数据创建者可通过授权机制将数据访问权限授予指定用户。这种设计既保证了数据的私密性与安全性,又提供了灵活的协作能力。

低代码平台

LangChat Pro 内置低代码平台,通过可视化拖拽方式快速构建表单并生成完整代码。主要功能包括:

  1. 可视化构建:拖拽组件至画布,快速搭建表单
  2. 布局定义:支持栅格布局,灵活调整表单结构
  3. 字段配置:自定义字段名称、显示标签、数据类型等
  4. 实时预览:预览表单效果,即时调整
  5. 代码生成:一键生成后端代码和 SQL 脚本,支持打包下载

提示词平台

LangChat Pro产品中内置了提示词管理平台,用于在系统其他所有位置将可以动态引用现在的知识库配置

素材库

LangChat Pro产品中内置素材库,用于管理各种渠道来源的素材,如图片、视频、音频、文档等.

消息渠道集成

LangChat 提供全面的企业级消息渠道集成解决方案,支持多种主流企业协作平台。

核心功能:

  • 企业微信集成:支持企业微信机器人等接入方式
  • 钉钉集成:支持钉钉机器人等场景
  • 邮件系统集成:支持 SMTP 协议,实现邮件自动发送
  • 自定义消息模版:支持配置消息模版推送消息

Text2SQL 能力

LangChat Pro 提供强大的 Text2SQL 转换能力,通过创新的自定义DDL技术,实现自然语言到精准SQL的智能转换。

自定义DDL功能

传统Text2SQL方案只能读取原始的英文字段名,AI难以理解业务含义。LangChat Pro提供了自定义DDL功能,允许用户为表和字段添加中文含义标注,让AI真正理解业务语义。

核心特性:

  • 多数据源支持:支持所有符合 JDBC 协议的数据源接入(MySQL、PostgreSQL、Oracle、SQL Server、国产数据库等)
  • 左右分栏布局:左侧展示原始表DDL,右侧管理自定义DDL,操作直观便捷
  • 自定义中文标注:为表名和字段添加中文含义和业务说明,让AI准确理解业务语义
  • SQL 生成优化:基于自定义DDL智能生成优化的SQL查询语句
  • Agent集成:将自定义DDL引入Agent应用,实现自然语言秒变精准SQL

AI 评审平台

AI 评审平台提供智能文档审阅和翻译能力,支持文档规范化审查和多语言转换。

核心功能:

  • 智能文档解析:基于 Apache Tika 解析各类文档格式(PDF、Word、Excel、PPT 等),提取文本内容
  • AI 文档评审:AI 全量阅读文档内容,识别不规范用语并提供修改建议,支持逐条应用、撤回和忽略操作
  • 多语言翻译:全量翻译文档内容,支持原文/译文分栏对比展示和独立查看

评审流程:

  1. 配置提示词:自定义 AI 角色和审阅指令,或使用系统默认配置
  2. 智能分析:AI 全量分析文档,高亮显示问题词汇并提供修改建议
  3. 交互式编辑:支持原文对比、建议预览、Markdown 导出等编辑操作

敏感词管理

LangChat 提供强大的敏感词管理能力,支持对敏感词进行管理,并支持对敏感词进行过滤。

核心功能:

  • 敏感词管理:支持敏感词的添加、删除、查询和替换
  • 敏感词过滤:支持对文本内容进行敏感词过滤,并返回过滤后的结果

模型消耗监控

LangChat Pro 提供企业级的模型消耗监控能力,通过ChatListener实时监听机制和多维度统计分析,让企业清晰掌握AI大模型的使用成本,实现精细化的成本管理和优化。

ChatListener监听机制

LangChat Pro封装了ChatListener监听器,能够实时捕获每一次模型调用的Request和Response数据,从请求发起到响应返回,完整记录调用链路,精准统计Token消耗,实时计算费用。

核心特性:

  • 灵活的双重计费模式:支持按Token计费(适用OpenAI、Claude等国际模型)和按次数计费(适用部分国产模型、自建模型),一次配置自动计算
  • 费用总览:提供总费用、总Token消耗、成功率、平均耗时等核心指标,支持环比/同比增长分析
  • 模型维度统计:按模型分组的消耗排行,饼图可视化展示各模型费用占比,快速找出"费用大户"
  • 时间维度统计:按日/周/月的费用趋势图、Token消耗趋势、调用次数趋势,掌握成本变化规律
  • 详细记录表格:每笔调用完整记录,支持按模型、状态、时间、应用、费用区间等多维度筛选,数据可导出用于财务对账
  • 实时监控零延迟:ChatListener采用异步处理,每次调用立即记录,不影响业务性能

Dify & Coze 集成

LangChat 提供与主流 AI 应用开发平台的深度集成能力。

核心功能:

  • 平台授权管理:支持 Dify、Coze 平台的授权配置和管理
  • 工作流集成:支持快速接入平台的工作流应用

自定义插件

LangChat 提供强大的插件扩展能力,基于大模型的 Function Call 机制,实现业务能力的快速集成和扩展。

核心特性:

  • 动态插件构建:支持通过配置方式快速构建 HTTP 插件,无需编写代码
  • 注解式开发:提供 @Tool 注解,支持快速将 Java 方法暴露为插件能力

应用场景:

  • 业务系统集成:快速对接企业内部系统
  • 第三方服务调用:集成各类第三方 API 服务
  • 数据处理:实现数据转换、清洗、分析等功能
  • 自动化流程:支持复杂业务流程的自动化处理

模型配置

LangChat 提供全面的模型配置管理能力,支持多种类型 AI 模型的动态配置和灵活切换。

核心特性:

  • 多模态模型支持

    • 推理模型:支持各类大语言模型的接入和配置
    • 视觉模型:支持图像识别、目标检测等视觉任务
    • 文生图模型:支持 阿里、豆包 等图像生成模型
    • 视频模型:支持视频理解、视频生成等能力
    • 语音模型:支持语音识别、语音合成等功能
    • 向量模型:支持文本向量化、语义检索等能力
  • 向量数据库配置

    • 支持多种向量数据库的接入
    • 提供灵活的索引配置

PaddleOCR集成

LangChat集成了基于PaddleOCR的高精度文字识别引擎,提供端到端的图像文字识别解决方案。

核心特性:

  • 多场景识别:支持通用文字、表格、票据、证件等多种场景的文字识别
  • 版面分析:智能分析文档版面结构,准确识别文字位置和排版
  • 表格识别:支持复杂表格的自动识别和结构化输出

技术优势:

  • 内置轻量级模型,无需额外配置
  • 支持离线部署,保护数据安全
  • 识别准确率高,支持模糊图片处理
  • 处理速度快,支持批量识别

应用场景:

  • 文档数字化:快速将纸质文档转换为可编辑文本
  • 票据识别:自动识别发票、收据等票据信息
  • 证件识别:支持身份证、营业执照等证件信息提取
  • 表格处理:自动识别和结构化表格数据

应用接入渠道

LangChat提供多种灵活的应用接入方式,满足不同场景下的集成需求。

接入方式:

  1. 独立窗口接入

    • 支持免登录窗口模式
    • 通过Iframe方式快速嵌入
    • 支持自定义窗口样式和主题
    • 适用于需要独立展示的场景
  2. SDK接入

    • 提供标准Web SDK
    • 支持右下角悬浮窗口
    • 支持自定义触发方式
    • 适用于门户网站集成

权限管理

权限管理模块基于RBAC(Role-Based Access Control)权限模型,提供了企业级的安全访问控制体系。

核心功能:

  • 用户生命周期管理:支持用户创建、编辑、禁用、删除等完整生命周期管理
  • 角色权限配置:支持多层级角色定义、权限继承、动态权限分配,提供细粒度的功能权限和数据权限控制
  • 菜单权限管理:支持动态菜单配置、权限路由、按钮级权限控制,确保用户只能访问授权的功能模块
  • 组织架构管理:支持多层级部门组织架构、人员归属管理、部门权限继承等企业级组织管理功能
  • 令牌安全管理:支持JWT令牌管理、Token刷新

商业协议

二次销售第三方无权商用,二次销售第三方无权商用,二次销售第三方无权商用

1. 授权使用范围 授权用户可无限期在其内部使用和发行LangChat Pro授权源码(企业授权用户不含分公司、子公司及第三方公司;个人授权用户仅可个人使用,不可用于在职公司或任何第三方),并可将其集成至内部应用环境中,拥有对源代码的修改权和定制化开发权。

2. 知识产权保护 授权用户不可向第三方发行或转让授权源码,无论有偿或无偿,也不可申请包含LangChat Pro授权源码的软件著作权。用户可申请基于LangChat Pro进行二次开发的自研部分源码的软件著作权。

3. 项目交付规范 授权用户仅可通过项目形式进行源码的二次开发,完成的定制化软件必须加密打包后才可交付客户。如需交付项目源码,必须为客户购买对应的商业授权许可。

4. 合规使用要求 授权用户不可将LangChat Pro授权源码用于任何违法、违规的活动。一经发现,LangChat Pro将第一时间配合相关部门进行处理,并保留追究法律责任的权利。

5. 技术支持服务 商业版用户享有专业技术支持服务,包括但不限于:技术咨询、问题诊断、性能优化建议、版本升级支持等。支持服务响应时间:工作日8小时内响应,紧急问题4小时内响应。

详细功能清单

功能模块功能清单
开源版开源授权版商业版
探索模块应用使用(含免登录使用)
Agent应用开发Agent应用管理(基础对话式AI)
Agent基础配置(模型参数、对话参数、系统提示词、温度参数)
Agent知识库检索(RAG向量检索)
Agent动态数据关联:关联自定义插件、关联MCP
Agent接入渠道配置、对话日志管理、数据监控查看
多模态交互支持(OCR文字识别、语音识别、文档解析)
Agent动态数据关联:关联数据表(MySQL、PostgreSQL、Oracle等)
知识库模块知识库管理
切片管理
切片文本段更新、重新向量化、删除新增文本段
向量检索
集成PaddleOCR、MinerU高精度文档处理引擎
Workflows工作流引擎可视化工作流编排
AI处理节点(多种大语言模型调用、向量检索、文本生成、图像处理)
系统集成节点(HTTP API调用、MCP、爬虫工具等)
自定义扩展节点(插件节点、MCP服务节点、自定义函数节点)
工作流接入渠道配置、对话日志管理、数据监控查看
素材库OSS资源管理模块
智能低代码引擎拖拉拽形式快速搭建表单实现CRUD代码(含SQL脚本)一键生成
Text2SQL模块数据源管理(所有支持JDBC协议数据源)
自定义DDL配置
Agent应用集成Text2SQL数据源
集成模块Dify、Coze授权配置
Dify平台应用接入
Coze平台应用接入
AI MCP 模块MCP Server授权配置
MCP JSON快速接入(HTTP、Stdio、Docker)
提供Java模块,通过@McpXxx注解快速构建MCP服务应用
AI 模块AI 绘图(文生图)
AI 音频(文生音频,音频文件合成、TTS)
AI 视频(文生视频,视频文件合成)
AI 视觉(图片内容解析)
AI 写作(文档编辑器文本写作)
自定义插件动态插件构建(通过配置方式快速构建HTTP插件)
Function Call机制集成
注解式开发(@Tool注解快速将Java方法暴露为插件)
敏感词管理敏感词库管理(添加、删除、查询、替换)
敏感词过滤(实时过滤用户输入和AI输出)
高精度OCR能力多场景识别(通用文字、表格、票据、证件)
版面分析(智能分析文档版面结构)
表格识别(复杂表格自动识别和结构化输出)
PaddleOCR引擎集成(内置轻量级模型、离线部署)
消息渠道配置企业微信机器人集成
钉钉机器人集成
邮件系统集成
模型配置推理模型配置
视觉模型配置
文生图模型配置
视频模型配置
语音模型配置
向量模型配置
向量数据库配置(Milvus、Redis、ElasticSearch、Pgvector)
模型消耗监控ChatListener实时监听机制
灵活计费模式(按Token计费/按次数计费)
费用总览(总费用、Token消耗、成功率、平均耗时、环比/同比)
应用接入渠道独立窗口接入(免登录窗口、Iframe嵌入)
Web SDK接入(右下角悬浮窗口、自定义触发)
RESTful API接口
权限管理模块(RBAC)用户生命周期管理
角色权限配置
菜单权限管理(动态菜单配置、权限路由、按钮级权限)
组织架构管理(多层级部门、人员归属、部门权限继承)
令牌安全管理(JWT令牌)
操作审计日志(用户操作记录)
数据权限控制(基于部门、角色、用户的数据访问控制)
授权支持产品使用文档
产品开发文档
版本迭代支持
专属架构师支持