华为发布算力最强 AI 处理器 Ascend 910 及全场景 AI 计算框架 MindSpore

简介: 华为发布算力最强 AI 处理器 Ascend 910 及全场景 AI 计算框架 MindSpore

[中国,深圳,2019 年 8 月 23 日] 华为正式发布算力最强的 AI 处理器 Ascend 910(昇腾910),同时推出全场景 AI 计算框架 MindSpore。华为公司轮值董事长徐直军在发布会上表示:华为自 2018 年 10 月发布 AI 战略以来,稳步而有序地推进战略执行、产品研发及商用进程。昇腾910、MindSpore 的推出,标志着华为已完成全栈全场景 AI 解决方案(Portfolio)的构建,也标志着华为 AI 战略的执行进入了新的阶段。

image.jpeg8 月 23 日,华为公司轮值董事长徐直军出席 AI 处理器 Ascend 910 及全场景 AI 计算框架 MindSpore 发布会。


昇腾 910,算力最强 AI 处理器

徐直军此次正式发布的 AI 芯片是昇腾910,属于 Ascend-max 系列。在 HC2018 上已经发布了其技术规格。实际测试结果表明,在算力方面,昇腾910 完全达到了设计规格,即:半精度 (FP16)算力达到 256 Tera-FLOPS,整数精度 (INT8) 算力达到 512 Tera-OPS,重要的是,达到规格算力所需功耗仅 310W,明显低于设计规格的 350W。徐直军表示:昇腾910 总体技术表现超出预期,作为算力最强AI处理器,当之无愧。我们已经把昇腾910 用于实际 AI 训练任务。比如,在典型的 ResNet50 网络的训练中,昇腾910 与 MindSpore 配合,与现有主流训练单卡配合 TensorFlow 相比,显示出接近 2 倍的性能提升。面向未来,针对不同的场景,包括边缘计算、自动驾驶车载计算、训练等场景,华为将持续投资,推出更多的 AI 处理器,面向全场景持续提供更充裕、更经济、更适配的AI算力。


MindSpore,全场景 AI 计算框架

徐直军还发布了全场景 AI 计算框架 MindSpore。能否大大降低AI应用开发的门槛,能否实现 AI 无处不在,能否在任何场景下确保用户隐私得到尊重和保护,这些都与 AI 计算框架息息相关。为此,去年华为全联接大会上,华为提出,AI 框架应该是开发态友好(例如显著减少训练时间和成本)和运行态高效(例如最少资源和最高能效比),更重要的是,要能适应每个场景包括端、边缘和云。经过近一年的努力,全场景 AI 计算框架 MindSpore 在这三个方面都取得了显著进展。

全场景支持,是在隐私保护日渐重要的背景下,实现 AI 无所不在越来越基础的需求,也是 MindSpore 的重要特色。针对不同的运行环境,MindSpore 框架架构上支持可大可小,适应全场景独立部署。MindSpore 框架通过协同经过处理后的、不带有隐私信息的梯度、模型信息,而不是数据本身,以此实现在保证用户隐私数据保护的前提下跨场景协同。除了隐私保护,MindSpore 还将模型保护 Built-in 到 AI 框架中,实现模型的安全可信。 在原生适应每个场景包括端,边缘和云,并能够按需协同的基础上,通过实现AI算法即代码,使开发态变得更加友好,显著减少模型开发时间。以一个 NLP(自然语言处理)典型网络为例,相比其他框架,用 MindSpore 可降低核心代码量 20%,开发门槛大大降低,效率整体提升 50% 以上。通过 MindSpore 框架自身的技术创新及其与昇腾处理器协同优化,有效克服 AI 计算的复杂性和算力的多样性挑战,实现了运行态的高效,大大提高了计算性能。除了昇腾处理器,MindSpore 同时也支持 GPU、CPU 等其它处理器。

为了更好促进 AI 的应用,徐直军宣布“MindSpore 将在 2020 年 Q1 开源”,助力每一位开发者,促进 AI 产业生态发展。


全栈全场景 AI 解决方案,让 AI 无处不在

徐直军在发布以上两款产品之前,首先重申了华为公司的 AI 战略:投资 AI 基础研究,在计算视觉、自然语言处理、决策推理等领域构筑数据高效(更少的数据需求) 、能耗高效(更低的算力和能耗) ,安全可信、自动自治的机器学习基础能力;打造全栈全场景解决方案,提供充裕的、经济的算力资源,简单易用、高效率、全流程的 AI 平台;投资开放生态和人才培养,面向全球,持续与学术界、产业界和行业伙伴广泛合作;把 AI 思维和技术引入现有产品和服务,实现更大价值、更强竞争力;应用 AI 优化内部管理,对准海量作业场景,大幅度提升内部运营效率和质量。

华为 AI 解决方案(portfolio)的全场景,是指包括公有云、私有云、各种边缘计算、物联网行业终端以及消费类终端等部署环境。而全栈是技术功能视角,是指包括 Ascend 昇腾系列 IP 和芯片、芯片使能 CANN、训练和推理框架 MindSpore 和应用使能 ModelArts 在内的全堆栈方案。

徐直军也回顾了制定以上 AI 战略的初衷。华为定位 AI 是一种新的通用目的技术(GPT),如同 19 世纪的铁路和电力,以及 20 世纪的汽车、电脑、互联网一样,将应用到经济的几乎所有地方。同时华为也认为 AI 的应用总体还处于发展初期,AI 技术和能力相比于长远期望还有很大差距。减小甚至消除这些差距,加速AI的应用,正是华为 AI 战略的初衷和目标。具体包括致力于促成以下 10 个方面的改变。

通过提供更强的算力,使复杂模型训练能在几分钟、甚至几秒钟内完成,而不是今天的数天甚至数周;提供更经济、更充裕的算力,让算力不再稀缺、不再昂贵,从而不再是 AI 发展的制约因素;通过全场景方案,适应企业不同需要,确保用户隐私得到尊重和保护,让 AI 能够部署在任何场景,而不仅仅是公有云。投资基础 AI 算法研究,实现更少的数据需求,即数据高效。也要能够基于更低的算力和能耗,即能耗高效。通过 AI 框架 MindSpore 和应用使能 ModelArts,大大提升 AI 自身的自动化水平,减少对人工的依赖。持续提升模型算法,实现工业生产环境的“工作”优秀,而不仅仅是各种比拼环境的“考试”优秀。实现模型的闭环、实时更新,保证企业 AI 应用始终处于最佳状态。将 AI 技术与 5G、云、物联网、边缘计算、区块链、大数据、数据库… 等技术充分协同,发挥更大价值。通过全栈方案一站式平台,使 AI 成为所有应用开发者甚至所有 ICT 技术从业人员的一项基本技能,而不是一项只有具备高级技能的专家才能完成的工作。通过全栈全场景技术手段,结合投资开放的生态和人才培养,让 AI 人才不再短缺

昇腾310 和 ModelArts 获得广泛应用

在华为全联接大会 2018 上,与华为 AI 战略一起, 作为全栈全场景解决方案的首批组件,华为同时对外发布并正式推出了昇腾310 AI 芯片 和全流程模型生产服务 ModelArts。昇腾310 属于 Ascend-mini 系列第一颗华为商用 AI SoC芯片,在最大功耗仅 8W 的情况下,其整数精度(INT8)算力达到 16Tops,半精度(FD16)算力达 到 8Tops,同时,该芯片中还集成了 16 通道 全高清 视频解码器,是面向边缘计算场景最强算力的 AI SoC。

自发布以来,基于昇腾310 芯片的产品和云服务获得广泛应用。其中,基于昇腾310 的 MDC 和很多国内外主流车企在园区巴士、新能源车、自动驾驶等场景已经深入合作。基于昇腾310 的 Atlas 系列板卡、服务器,与数十家伙伴在智慧交通、智慧电力等数十个行业落地行业解决方案。基于昇腾310,华为云提供了图像分析类服务、OCR 服务、视频智能分析服务等云服务。对外提供 API 达 50 多个,日均调用量超过 1 亿次,而且在快速增长,预计年底日均调用量 超过 3 亿次。另有超过 100 多个客户使用昇腾310 开发定制 AI 算法。

ModelArts 全流程模型生产服务打通了从数据获取-模型开发-模型训练-模型部署的全链条,可将生产所需的所有服务一站式提供。截止目前,ModelArts 已经拥有开发者超过 3 万,日均训练作业任务超过 4000 个,32000 小时,其中:视觉类作业占 85%,语音类作业占 10%, 机器学习 5%。

随着今天昇腾910 AI 处理器以及 MindSpore 全场景 AI 计算框架的发布,华为全栈全场景 AI 解决方案各重要组成部分悉数登场,徐直军因此表示“华为已完成了全栈全场景 AI 解决方案的构建”。实现了预期的计划和目标,对华为 AI,这是一个新的里程碑,更是一个新的开始。在发布会最后,徐直军预告,在即将开幕的华为全联接大会 2019,将有更多震撼的AI新品提出。华为期待与伙伴更加深入、广泛的合作,让 AI 无所不及,把数字世界带给每个人、每个家庭、每个组织。

相关文章
|
2月前
|
人工智能 Java 开发者
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
JManus是阿里开源的Java版OpenManus,基于Spring AI Alibaba框架,助力Java开发者便捷应用AI技术。支持多Agent框架、网页配置、MCP协议及PLAN-ACT模式,可集成多模型,适配阿里云百炼平台与本地ollama。提供Docker与源码部署方式,具备无限上下文处理能力,适用于复杂AI场景。当前仍在完善模型配置等功能,欢迎参与开源共建。
1229 58
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
|
2月前
|
人工智能 运维 Java
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
本文基于Apache Flink PMC成员宋辛童在Community Over Code Asia 2025的演讲,深入解析Flink Agents项目的技术背景、架构设计与应用场景。该项目聚焦事件驱动型AI智能体,结合Flink的实时处理能力,推动AI在工业场景中的工程化落地,涵盖智能运维、直播分析等典型应用,展现其在AI发展第四层次——智能体AI中的重要意义。
939 27
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
|
2月前
|
人工智能 数据可视化 数据处理
AI智能体框架怎么选?7个主流工具详细对比解析
大语言模型需借助AI智能体实现“理解”到“行动”的跨越。本文解析主流智能体框架,从RelevanceAI、smolagents到LangGraph,涵盖技术门槛、任务复杂度、社区生态等选型关键因素,助你根据项目需求选择最合适的开发工具,构建高效、可扩展的智能系统。
604 3
AI智能体框架怎么选?7个主流工具详细对比解析
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:IndexTTS2–B站、HuMo、Stand-In视觉生成框架、Youtu-GraphRAG、MobileLLM-R1–Meta、PP-OCRv5
AI Compass前沿速览:IndexTTS2–B站、HuMo、Stand-In视觉生成框架、Youtu-GraphRAG、MobileLLM-R1–Meta、PP-OCRv5
255 10
AI Compass前沿速览:IndexTTS2–B站、HuMo、Stand-In视觉生成框架、Youtu-GraphRAG、MobileLLM-R1–Meta、PP-OCRv5
|
1月前
|
人工智能 JavaScript 前端开发
GenSX (不一样的AI应用框架)架构学习指南
GenSX 是一个基于 TypeScript 的函数式 AI 工作流框架,以“函数组合替代图编排”为核心理念。它通过纯函数组件、自动追踪与断点恢复等特性,让开发者用自然代码构建可追溯、易测试的 LLM 应用。支持多模型集成与插件化扩展,兼具灵活性与工程化优势。
128 6
|
2月前
|
人工智能 监控 数据可视化
如何破解AI推理延迟难题:构建敏捷多云算力网络
本文探讨了AI企业在突破算力瓶颈后,如何构建高效、稳定的网络架构以支撑AI产品化落地。文章分析了典型AI IT架构的四个层次——流量接入层、调度决策层、推理服务层和训练算力层,并深入解析了AI架构对网络提出的三大核心挑战:跨云互联、逻辑隔离与业务识别、网络可视化与QoS控制。最终提出了一站式网络解决方案,助力AI企业实现多云调度、业务融合承载与精细化流量管理,推动AI服务高效、稳定交付。
|
2月前
|
人工智能 边缘计算 大数据
【C位面对面】被低估的“通用算力”:为什么 AI 时代CPU 的需求“不降反增”?
AI时代下,大数据、高频交易、AI预处理、边缘计算等核心负载持续推高CPU算力需求。阿里云联合AMD,基于Zen5架构Turin处理器,推出三款场景化云实例:普惠型u2a、高主频g9a及192核g9ae,满足多样算力需求。通过CIPU+Chiplet技术实现性能跃迁,释放CPU真正潜力,助力企业把握通用计算的“第二增长曲线”。
|
11月前
|
机器学习/深度学习 人工智能 算法
AI框架的赢者法则:生态繁荣的昇思MindSpore,成为大模型时代的新选择
2024年被视为大模型应用的元年。昇思MindSpore AI框架凭借其强大的开源社区和技术创新,在全球范围内迅速崛起。截至2024年11月,该框架的下载量已超过1100万次,覆盖130多个国家和地区的2400多个城市,拥有3.7万名贡献者。昇思MindSpore不仅在人才培养和社区治理方面表现出色,还在大模型的开发、训练和应用中发挥了关键作用,支持了50多个主流大模型,覆盖15个行业。随着其市场份额预计达到30%,昇思MindSpore正逐步成为行业共识,推动大模型在各领域的广泛应用。
333 12
|
机器学习/深度学习 人工智能 算法
国产AI框架支棱起来了!这所211高校凭昇思MindSpore连发10篇顶刊/顶会论文
国产AI框架支棱起来了!这所211高校凭昇思MindSpore连发10篇顶刊/顶会论文
398 0
|
人工智能 算法 开发者
华为开源全场景AI计算框架MindSpore,性能可达 Pytorch+2080Ti 的1.93倍
华为开源全场景AI计算框架MindSpore,性能可达 Pytorch+2080Ti 的1.93倍
768 0

热门文章

最新文章