Yuxi-Know:开源智能问答系统,基于大模型RAG与知识图谱技术快速构建知识库

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
简介: Yuxi-Know是一个结合大模型RAG知识库与知识图谱技术的智能问答平台,支持多格式文档处理和复杂知识关系查询,具备多模型适配和智能体拓展能力。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🎯 「知识管理新时代!开源神器让PDF秒变智能顾问,复杂问题一键图解」

大家好,我是蚝油菜花。你是否也经历过这些知识焦虑时刻——

  • 📚 百页技术文档读到头秃,关键信息像在玩捉迷藏
  • 🔍 查企业财报像破译密码,数据关联全靠脑内Excel
  • 🤖 用AI问答总被"超出知识范围"打脸,还得手动喂资料...

今天要拆解的 Yuxi-Know ,正在重定义知识获取方式!这个由开发者社区打造的开源核武器:

  • 文档吞噬者:PDF/TXT/MD全格式通吃,自动构建向量知识库
  • 关系挖掘机:Neo4j知识图谱让"北京是中国的首都"这种关联秒解
  • 模型百宝箱:OpenAI/智谱/DeepSeek等主流大模型即插即用
  • 智能体乐高:支持自定义代码扩展,打造专属AI知识管家

已有金融团队用它分析上市公司关联网络,教育机构靠它生成智能教材问答——你的知识库准备好升级到2.0版本了吗?

Yuxi-Know 是什么

Yuxi-Know

Yuxi-Know(语析)是基于大模型RAG知识库与知识图谱技术构建的智能问答平台。平台支持多种知识库文件格式(如PDF、TXT、MD、Docx),能将文件内容转换为向量存储实现快速检索,并集成基于Neo4j的知识图谱问答能力。

该系统采用多模型适配架构,兼容OpenAI、国内主流大模型及本地部署方案,支持开发者通过编写自定义智能体代码扩展功能。技术栈涵盖VueJS前端、FastAPI后端,以及Milvus向量数据库和Neo4j图数据库的深度整合。

Yuxi-Know 的主要功能

  • 多模型支持:适配OpenAI、智谱、DeepSeek等主流大模型API,支持本地vllm/ollama部署
  • 全格式知识库:支持PDF/TXT/MD/Docx文档自动向量化,构建可检索知识体系
  • 知识图谱引擎:基于Neo4j实现复杂关系查询,支持jsonl格式图谱文件导入
  • 智能体扩展:开放自定义智能体开发接口,支持功能模块化拓展
  • 混合检索系统:结合向量检索与重排序技术,提升问答准确率
  • 可视化配置:提供友好的网页管理界面,支持模型切换和知识库维护

Yuxi-Know 的技术原理

  • RAG架构:采用BAAI/bge-m3等向量模型处理文本,Milvus实现高效向量检索
  • 知识图谱:通过Neo4j存储实体关系,支持多跳查询和语义推理
  • 模型适配层:基于models.yaml配置实现多模型API的统一调度
  • 服务化部署:使用Docker容器化封装,包含前后端完整服务链
  • 动态加载:支持运行时添加本地模型服务,兼容vllm/ollama等框架

如何运行 Yuxi-Know

环境配置

  1. 复制.env.template.env文件
  2. 配置至少一个模型API_KEY,例如:
    SILICONFLOW_API_KEY=sk-xxx
    OPENAI_API_KEY=sk-xxx
    

启动服务

docker compose -f docker/docker-compose.dev.yml --env-file src/.env up --build

服务启动后访问http://localhost:5173/

服务管理

  • 后台运行:添加-d参数
  • 查看日志:docker logs <容器名称>
  • 停止服务:docker compose -f docker/docker-compose.dev.yml down

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
12天前
|
负载均衡 测试技术 调度
大模型分布式推理:张量并行与流水线并行技术
本文深入探讨大语言模型分布式推理的核心技术——张量并行与流水线并行。通过分析单GPU内存限制下的模型部署挑战,详细解析张量并行的矩阵分片策略、流水线并行的阶段划分机制,以及二者的混合并行架构。文章包含完整的分布式推理框架实现、通信优化策略和性能调优指南,为千亿参数大模型的分布式部署提供全面解决方案。
240 4
|
18天前
|
人工智能 机器人 人机交互
当AI学会“看、听、懂”:多模态技术的现在与未来
当AI学会“看、听、懂”:多模态技术的现在与未来
223 117
|
14天前
|
人工智能 API 开发工具
构建AI智能体:一、初识AI大模型与API调用
本文介绍大模型基础知识及API调用方法,涵盖阿里云百炼平台密钥申请、DashScope SDK使用、Python调用示例(如文本情感分析、图像文字识别),助力开发者快速上手大模型应用开发。
488 16
构建AI智能体:一、初识AI大模型与API调用
|
14天前
|
人工智能 文字识别 自然语言处理
从“看见”到“预见”:合合信息“多模态文本智能技术”如何引爆AI下一场革命。
近期,在第八届中国模式识别与计算机视觉学术会议(PRCV 2025)上,合合信息作为承办方举办了“多模态文本智能大模型前沿技术与应用”论坛,汇聚了学术界的顶尖智慧,更抛出了一颗重磅“炸弹”——“多模态文本智能技术”概念。
73 1
|
16天前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
208 2
|
20天前
|
监控 算法 测试技术
大模型推理服务优化:动态批处理与连续批处理技术
本文系统阐述大语言模型推理服务中的关键技术——动态批处理与连续批处理。通过分析传统静态批处理的局限性,深入解析动态批处理的请求调度算法、内存管理策略,以及连续批处理的中断恢复机制。文章包含完整的服务架构设计、核心算法实现和性能基准测试,为构建高性能大模型推理服务提供全面解决方案。
158 3
|
17天前
|
存储 缓存 算法
淘宝买家秀 API 深度开发:多模态内容解析与合规推荐技术拆解
本文详解淘宝买家秀接口(taobao.reviews.get)的合规调用、数据标准化与智能推荐全链路方案。涵盖权限申请、多模态数据清洗、情感分析、混合推荐模型及缓存优化,助力开发者提升审核效率60%、商品转化率增长28%,实现UGC数据高效变现。
|
8月前
|
SQL
【YashanDB知识库】手工迁移Doris数据到崖山分布式
【YashanDB知识库】手工迁移Doris数据到崖山分布式
|
8月前
|
存储 人工智能 搜索推荐
WiseMindAI:一款AI智能知识库,数据完全本地化,支持文档对话、10+种文档、10+AI大模型等
WiseMindAI 是一款由 Chris 开发的 AI 智能学习助手,支持数据完全本地化存储,确保用户隐私安全。它兼容多种文档格式(如 PDF、Markdown 等),并提供 AI 文档总结、智能笔记、沉浸式翻译、知识卡片生成等功能。此外,WiseMindAI 支持 10+ 大语言模型和自定义 AI 插件,适用于 Windows 和 Mac 平台,支持简体中文、繁体中文及英文。
660 74
WiseMindAI:一款AI智能知识库,数据完全本地化,支持文档对话、10+种文档、10+AI大模型等
|
8月前
|
Java 数据库连接
【YashanDB知识库】使用DBeaver 插入数据 nvarchar字段插入为空
【YashanDB知识库】使用DBeaver 插入数据 nvarchar字段插入为空
【YashanDB知识库】使用DBeaver 插入数据 nvarchar字段插入为空

热门文章

最新文章