Function AI 助力用户自主开发 MCP 服务,一键上云高效部署

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
函数计算FC,每月15万CU 3个月
简介: 在 AI 与云原生融合趋势下,MCP(模型上下文协议)助力开发者高效构建多模型智能应用。Function AI 提供 MCP 服务的一键上云能力,支持代码仓库绑定、OSS 上传、本地交付物及镜像部署等多种方式,实现模型服务快速集成与发布,提升开发效率与云端协同能力。

在 AI 与云原生协同创新的浪潮下,多模型、多场景智能应用日益普及。开发者面临的首要挑战,是如何实现模型之间、服务之间的高效协同,以及如何便捷地将自主研发能力拓展到云端,形成灵活可扩展的智能服务。MCP 即模型上下文协议(Model Context Protocol),其提供了一套通用的上下文管理和交互规范,帮助开发者聚焦于模型推理及业务创新,同时解决模型集成、通讯、调度和上下文共享等复杂问题。开发者可以根据自身业务场景,自主开发符合 MCP 协议的服务代码,并通过简单配置,一键部署至 Function AI 平台,并通过平台提供的访问地址提供给你进行调用,实现与模型服务的快速开发与集成。

Function AI 提供 MCP 代码一键上云的全流程能力

为了让开发者更高效地将自主实现的 MCP 协议代码构建、部署到云端服务,Function AI 针对开发阶段,提供了如下图所示的多途径的便捷构建和部署能力。

开发者可以将源码、交付物或镜像上传或托管至 Function AI 平台,通过修改构建配置和运行配置,点击部署后,便可将你的 MCP 服务源码部署至平台,平台提供公网访问地址可以连接你云端部署的 MCP 服务。

绑定代码仓库,自动拉取代码进行构建部署

Function AI 提供了 Github、Gitee、Gitlab 和 Codeup 源码仓库代码一键构建部署的能力。MCP 服务的代码开发者只需将 MCP 代码托管到源码仓库,Function AI 支持仓库绑定获取源码,自动触发构建和一键部署。每一次提交后,平台都能持续集成,使云端部署与本地开发同步,适合团队协作及敏捷交付。

首先登录 Function AI 平台,点击创建项目,在项目下创建一个 MCP 服务。

进入基础配置,可以定义你的 MCP 服务(函数)名称和描述。进入下面的 MCP 服务配置,选择你想绑定的代码仓库(Github、Gitee、Gitlab 或 Codeup)。点击“授权”,跳转到代码仓库的页面,将你的账号授权给平台,获取你的仓库和分支信息。授权完毕后,选择你想绑定的代码仓库和分支。

绑定完成后,需要选择你的代码运行环境和运行启动命令。Function AI 支持 NodeJS、Python、Java 等多个 MCP 服务依赖运行时,你可以选择相应的运行时,并填写代码的启动命令启动代码。Function AI 支持 MCP STDIO 协议和 SSE 协议,你可以选择你 MCP 服务中的对应协议类型。

下一步是填写构建配置:首先填写代码根目录,平台会将你填写的代码根目录下的代码上传到平台进行构建。此外,需要你填写代码的构建环境和构建命令。

图片

例如,我想部署一个 Nodejs 代码开发的 MCP 服务,在这里要填写对应的构建环境和构建命令(在对应的路径下执行相应的构建命令),一般来说,构建的命令用于帮助你的代码安装相关环境依赖。
在这里:

  • 示例中代码根目录填写的是.,平台将上传代码仓库的源码,其根目录就是运行时的根目录;
  • 示例中的 MCP 服务是基于 Nodejs 进行开发的,因此选择了 Node.js20 作为构建环境;
  • 代码首选需要通过 npm install 安装相关依赖,随后执行 npm run build 编译相关源码,在构建命令中填写相应命令,命令执行路径不填,默认会使用代码根目录,即在代码仓库的根目录下执行此条命令;
  • 如你需要在构建阶段使用缓存,可打开缓存开关配置缓存路径,详细见:缓存路径配置

随后,你可以按需选择此 MCP 服务需要的资源配置和网络配置。资源配置决定了你的服务是否需要开启极速模式预留实例快照以及此服务需要的 CPU 和内存规格。网络配置决定了你的 MCP 服务是否要绑定 VPC 进行内网访问以及是否禁用公网 URL。

图片

在配置好以上信息后,点击部署服务,即可将服务构建并部署至 Function AI 平台上。你可以点击部署记录查看构建和部署日志(包含安装代码依赖、部署程序至函数计算服务中)。

图片

部署成功后,你可以点击“访问地址”查看公网访问地址和私网访问地址,你可以根据此地址,将此 MCP 服务注册到百炼等第三方模型服务提供平台,提供给大模型进行调用。

后期你可以点击监控和日志,查看当前 MCP 服务运行的日志和指标情况,方便你进行后续运维。

若你选择通过绑定代码仓库,获取源码构建部署 MCP 服务,平台会自动创建 Webhook 至你的代码仓库,后续该绑定分支的提交操作,将自动触发构建部署流程,使每一次代码更新都能够实时集成并快速上线,无需手动干预,大幅提升开发效率与发布频率,保障你的服务持续迭代与高效交付。

上传源码包到 OSS 构建

如你或团队已开通对象存储(OSS)服务,可将完整源码包上传至 OSS。Function AI 会自动拉取你上传到 OSS 的源码,按照配置高效完成构建和部署,帮你助你实现资源管理与交付流程的统一。

图片

新建 MCP 服务,点击 OSS 上传,你可以选择你当前账号下的 Bucket 和 Object 目录,如果上传的 Object 为 ZIP 压缩文件,平台会自动帮你解压缩,在代码根目录下执行构建命令,同样填写运行配置、资源配置和网络配置后(步骤与第一节相同),点击部署,便可将你的代码部署至 Function AI 平台。

上传本地构建交付物

如果你觉得在本地构建的方式更加自由和灵活,Function AI 提供了上传本地交付物直接进行部署的能力。你可以本地编译、打包好可执行文件(例如二进制文件、JAR 包、安装好依赖的解释性语言包等)后,即可通过 ZIP 压缩包上传至 Function AI,由平台自动完成部署,无需平台端二次构建,大幅缩短部署周期。

新建 MCP 服务,点击代码包上传,你可以将你本地的构建好的交付物压缩为 ZIP 文件,拖拽至控制台进行上传。平台会自动帮你解压缩。由于你上传的是交付文件,平台将不为你进行代码构建,在填写运行配置、资源配置和网络配置后(步骤与第一节相同),点击部署,便可将你的交付物部署至 Function AI 平台。

镜像上传至 ACR,平台自动部署

考虑到 MCP 服务的定制遇到复杂运行环境时,传统的基于程序语言的运行时可能不能满足你的需求,Function AI 提供了容器化的部署方式。

新建 MCP 服务,选择自定义容器作为运行环境,将本地构建的 MCP 服务的 Docker 镜像上传至阿里云 ACR 镜像仓库,填写监听端口和启动命令。Function AI 平台拉取镜像后立即部署,兼容 DevOps 流程,保障一致性与可控性。

注:MCP 服务镜像部署只支持 SSE 协议,你可以使用相应开源 Proxy,完成 STDIO 协议和 SSE 协议的转换。

面向未来,打造开放且高效的Serverless AI 应用开发平台

Function AI 致力于支持 MCP 服务开发的每一个阶段,无论你是独立开发者还是企业技术团队,使用 MCP 协议自研代码,都可凭借 Function AI 平台,享受:

  • 一键式 MCP 代码部署体验
  • 灵活适配不同需求研发流程
  • 快速联通云端 AI 资源
  • 版本管理与可追踪上线

让每一次本地创新,都能自在上云,融入智能生态。现在就来体验 Function AI 的强大云端部署能力,让你的 MCP 服务模型更快、更安全、更智能地服务业务创新!

相关文章
|
17天前
|
人工智能 自然语言处理 安全
用AI重构人机关系,OPPO智慧服务带来了更“懂你”的体验
OPPO在2025开发者大会上展现智慧服务新范式:通过大模型与意图识别技术,构建全场景入口矩阵,实现“服务找人”。打通负一屏、小布助手等系统级入口,让服务主动触达用户;为开发者提供统一意图标准、一站式平台与安全准则,降低适配成本,共建开放生态。
138 31
|
16天前
|
人工智能 安全 API
20 万奖金池就位!Higress AI 网关开发挑战赛参赛指南
本次赛事共设三大赛题方向,参赛者可以任选一个方向参赛。本文是对每个赛题方向的参赛指南。
121 10
|
13天前
|
人工智能 测试技术 API
构建AI智能体:二、DeepSeek的Ollama部署FastAPI封装调用
本文介绍如何通过Ollama本地部署DeepSeek大模型,结合FastAPI实现API接口调用。涵盖Ollama安装、路径迁移、模型下载运行及REST API封装全过程,助力快速构建可扩展的AI应用服务。
279 6
|
15天前
|
人工智能 运维 安全
加速智能体开发:从 Serverless 运行时到 Serverless AI 运行时
在云计算与人工智能深度融合的背景下,Serverless 技术作为云原生架构的集大成者,正加速向 AI 原生架构演进。阿里云函数计算(FC)率先提出并实践“Serverless AI 运行时”概念,通过技术创新与生态联动,为智能体(Agent)开发提供高效、安全、低成本的基础设施支持。本文从技术演进路径、核心能力及未来展望三方面解析 Serverless AI 的突破性价值。
|
26天前
|
SQL 人工智能 机器人
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建
FastGPT 与 MCP 协议结合,打造工具增强型智能体新范式。MCP 如同 AI 领域的“USB-C 接口”,实现数据与工具的标准化接入。FastGPT 可调用 MCP 工具集,动态执行复杂任务,亦可作为 MCP 服务器共享能力。二者融合推动 AI 应用向协作式、高复用、易集成的下一代智能体演进。
185 0
|
17天前
|
人工智能 运维 Java
Spring AI Alibaba Admin 开源!以数据为中心的 Agent 开发平台
Spring AI Alibaba Admin 正式发布!一站式实现 Prompt 管理、动态热更新、评测集构建、自动化评估与全链路可观测,助力企业高效构建可信赖的 AI Agent 应用。开源共建,现已上线!
1449 39
|
19天前
|
人工智能 自然语言处理 JavaScript
VTJ.PRO如何利用AI实现低代码开发
VTJ.PRO深度集成AI,实现设计稿转代码、自然语言生成组件等功能,显著提升低代码开发效率。支持双向代码穿梭、企业级工程化与多模型协同决策,兼顾开发速度与代码自由度,助力项目周期大幅压缩。
137 43
VTJ.PRO如何利用AI实现低代码开发
|
人工智能 自然语言处理 前端开发
产品经理也能“开发”需求?淘宝信息流从需求到上线的AI端到端实践
淘宝推荐信息流业务,常年被“需求多、技术栈杂、协作慢”困扰,需求上线周期动辄一周。WaterFlow——一套 AI 驱动的端到端开发新实践,让部分需求两天内上线,甚至产品经理也能“自产自销”需求。短短数月,已落地 30+ 需求、自动生成 5.4 万行代码,大幅提升研发效率。接下来,我们将揭秘它是如何落地并改变协作模式的。
282 37
产品经理也能“开发”需求?淘宝信息流从需求到上线的AI端到端实践
|
20天前
|
人工智能 IDE 开发工具
从6人日到1人日:一次AI驱动的客户端需求开发实战
从6人日到1人日:一次AI驱动的客户端需求开发实战
从6人日到1人日:一次AI驱动的客户端需求开发实战
|
24天前
|
人工智能 小程序 开发者
【一步步开发AI运动APP】十二、自定义扩展新运动项目03
继【一步步开发AI运动小程序】后,我们推出新系列【一步步开发AI运动APP】,助开发者打造高性能、优体验的AI运动应用。本文详解自定义扩展运动分析器的统一管理实现,提升代码复用性与可维护性,涵盖APP与小程序插件差异及完整代码示例,助力AI运动场景深度拓展。

热门文章

最新文章