Roadmap

支持 ONNX 内核模型

功能模块描述
Chat2File 微缩RAG基于 ONNX 内核的文件聊天功能,支持微缩 RAG 技术
Chat2SQL智能 SQL 查询生成,支持自然语言转 SQL
基于 ONNX 向量提升利用 ONNX 模型优化向量计算性能
输出基础图表自动生成数据可视化图表
BGE3-ONNX集成 BGE3 模型的 ONNX 版本
性能优势

ONNX 内核模型相比传统模型具有更快的推理速度和更低的资源消耗,特别适合生产环境部署。

知识图谱模式

RAG 技术

技术特性说明
支持 OpenNLP 切段使用 OpenNLP 进行智能文本分段处理
自训练 OpenNLP 中文切片模型专门针对中文优化的文本切片模型
中文优化

自训练的中文切片模型针对中文语义特点进行了深度优化,能够更准确地理解和处理中文文档。

SDK 适配最新GA

  • 适配 langchain4j 1.0 RELEASE - 升级到 langchain4j 的正式版本
  • 适配 spring ai 1.0 RELEASE - 集成 Spring AI 的稳定版本
版本升级

升级到 GA 版本意味着更稳定的 API 接口和更完善的功能支持,建议生产环境使用。

MCP 服务能力

组件功能
MCP ServerModel Context Protocol 服务端实现
MCP ClientModel Context Protocol 客户端支持
协议说明

MCP(Model Context Protocol)是一种标准化的模型上下文通信协议,支持不同 AI 系统之间的互操作性。

业务联动支持脚本化

支持业务流程的自动化脚本执行和联动操作,提供灵活的业务流程编排能力。

开发平台

功能描述
AI自动创建表基于需求描述自动生成数据库表结构
AI 自动注释智能代码注释生成,提升代码可读性
数据安全

使用 AI 自动创建表功能时,需要确保数据安全和权限控制,建议在开发环境测试后再应用到生产环境。

厂商支持

模型厂商支持

  • 多厂商模型接入 - 支持各大 AI 模型厂商的接入和切换

KIMI 厂商支持

  • KIMI 模型集成 - 专门针对 KIMI 模型的优化和支持

路线图时间线

第一阶段:基础能力建设 (2025.Q2)

  • ONNX 内核模型支持(已完成)
  • MCP 服务能力(已完成)
  • SDK 适配最新GA(已完成)

第二阶段:智能化提升 (2025.Q3)

  • 知识图谱模式(进行中)
  • 开发平台功能(进行中)

第三阶段:生态扩展 (2025.Q3)

  • 业务联动支持脚本化(计划中)
  • 多厂商支持(计划中)
路线图说明

此路线图会根据技术发展和用户需求持续更新调整,敬请关注最新动态。