量子互文
1. 概览
- 时间:2022年01月20日
- 摘要: 在本期讨论中,将简单地回顾量子关联这个概念。量子关联刻画了经过量子测量后,不能被经 典物理、理论(比如一般的随机过程,或被称为隐变量理论、实在论模型)描述的统计结果。具体地, 我们将讨论量子非局域性和量子互文。我们会通过一种不需要太多量子力学知识就能理解的方式介绍这些概念。然后我们会讨论量子关联在机器学习, 特别是在语言翻译中的潜在应用。我们希望通过这次讨论, 让大家能感受到研究量子力学基础问题也可能对日常生活中的问题产生应用
- 主讲人: 皓勋
- 北大本科,清华博士,现为哈佛大学博士后
- 主要研究领域: 量子信息及其应用
- 个人主页:
- 记录人:庄嘉培
[TOC]
这个报告中想讨论些什么
- 量子性远比随机性和不确定性要丰富的一个概念 (no-go theorem for hidden variable theory, quantum non-locality)
- 量子纠缠并不能超光速的传信息
- 一些量子系统会有更多的记忆能力 (这是因为量子互文quantum contextuality这一种量子关联)
- 这些概念如何在序列模拟中的应用
1.1. 参考文献
- 本次分享的主要参考文献:Chapter 2 of "Alber G, Beth T, Horodecki M, Horodecki P, Horodecki R, Rötteler M, Weinfurter H, Werner R, Zeilinger A. Quantum information: An introduction to basic theoretical concepts and experiments. Springer"
- Wikipedia on quantum contextuality: https://en.wikipedia.org/wiki/Quantum_pseudo-telepathy
- 演讲者的原创工作 My own work on quantum correlation \& generative models "Gao , Anschuetz ER, Wang ST, Cirac Jl, Lukin MD. Enhancing generative models via quantum correlations. arXiv preprint arXiv:2101.08354. 2021 Jan 20." \& "Anschuets ER, HY Hu, JL Huang, Gao X. In preparation"
主要集中在讨论量子性(quantumness)是什么,讨论它跟经典力学的关系。
- 这里的经典力学其实是更广义的,它不得不光指牛顿力学,它还包括一些比如说最一般的随机过程
- 主要讨论量子力学是超出经典的部分,这些就叫做量子关联。
2. 量子信息VS经典信息
2.1.1. 一个重要的问题
量子信息本质上它是一种很不一样的信息,还是它本身只是经典信息的一个特例?
关于这个问题的回答其实就是理解量子机器能力的关键所在,
- 如果这个问题的回答是的话,那么我们就没有必要去建造比如说量子计算机,因为本质上量子信息它也是一种经典信息。然后我们也可以在他们之间互相转化。
- 但是如果这个回答是否的话,那么力量子的机器会提供更强大的能力在信息处理的问题上。
2.1.2. 思想实验
做一些思想实验,假设量子信息和经典信息可以互相转换
- 这个设备 是一个从经典的比特,到量子比特的一个转化。在量子力学中,这个其实叫做量子态制备。
- 上面过程的反向的过程中反向过程 是把一些量子的比特,转化成了一些经典的比特。这个过程在量子力学中叫做测量
- 把上面两个过程组合起来,形成classical teleportation。
- 这个机器的作用:有一些量子系统,通过某个设备把它转化成经典信息,然后我们通过发送经典信息给另一方,另一方会根据这些信息制备这样一个量子态。
- 假想传输过程是没有损失的。没有损失的意思是如果我们前后做一些统计测试,然后我们分辨不出来区别
- 在上面classical teleportation基础上,多一份经典信息复制再转换成量子信息。这个机器称为quantum copier
- 因为从输入和输出角度看,一份量子信息输入,两份量子信息输出。
- 在quantum copier的基础上,添加两个经典测量
- 比如 A 可以是位置测量, B 可以是动量测量。
- 也就是说如果我们有一个量子复制机的话,我们就可以做一个关联测量。用数学表示
- (the probability if just measuring )
- (the probability if just measuring )
- 在量子力学中,或者傅里叶变换中,动量和位置,时间和频率,关联测量是不可能的。
2.1.3. 隐变量
- quantum copiers 关联测量
- 关联测量 quantum copier
量子信息可以转化成经典信息的时候,有两种方式可以去讨论
- 过程是确定性的:给一个量子态,然后我就可以获得它的完整描述。
- 就是所谓的量子克隆。
- 过程是不确定的:给一个量子态,每一次测量我都得到不一样的经典信息。
- 这个就是更弱版本的量子复制机,这个其实就已经足够推出关联测量
- 这里的不确定性其实就是所谓的隐变量。
前面说到的过程,量子信息 经典信息 量子信息,如果传输是无损的,中间的经典信息就是一种隐变量 hidden variable
如果有隐变量的话,其实能给出关联测量
- 如果这就是测量 的话,那么我们就可以给出 的信息。
- 用数学严格化形式:, a quantum state is actually a distribution over the above discussion of measurement:
小结
如果量子信息是一种经典信息的话,也说它有隐变量理论的话,就会存在一个关联的测量。
3. 量子纠缠
用刚才我们讨论过的关联测量的这个概念,和量子纠缠结合起来讨论。
- 如果我们考虑量子力学的关于纠缠态的一些测量统计的结果是成立的
- 我们同时又假设有关联测量的存在,也就说有有隐变量理论的存在
那我们将会有超光速度通讯能力,下面我们给出具体的推导。
3.1.1. Alice 和 Bob 的通讯游戏
图片情景解释
- 假设现在有Alic和 Bob 两个人
- 共享一个纠缠态
- Alic想去给 Bob 一个通讯的信息
- 想发送+1的话,他就测
- 想发送-1的话,他就测
- 假设Bob有关联测量的能力,就是他可以直接测 ,得到 的统计结果
- Bob 的目标:他想用超过1/2 的概率去知道Alic发送的是+1还是-1
Bob关联测量的数学表达
概率计算
Bob怎么来猜爱丽丝的选择的。
- 如果测到 的话,那么 Bob 就猜Alice测了
- 否则猜Alice测了
假设Alice测了,Bob猜对的概率 假设Alice测了,Bob猜对的概率
小结
Bob可以猜对Alice正确的概率
- 如果是隐变量理论,对于任何,(这是著名的贝尔不等式)
- 如果是量子力学,对于某些选择,
所以隐变量理论和量子力学的预测是不能同时成立。
贝尔关联,又称量子非局域性,一种超越任何经典关联的关联关系
3.1.2. CHSH game
贝尔关联的另一种理解——CHSH game
- 经典理论预测的成功概率:
- 量子理论预测的成功概率:
4. 量子互文
4.1.1. 游戏例子
九宫格要求格子中数字
- 每一行数字的乘积必须是+1
- 每一列数字的乘积必须是-1
如图的例子
尝试后发现都是失败,所以说这个游戏在这个约束下,没有一个成功的办法。
量子版本
量子版本在九宫格里填的是算符
- 每一行算符的乘积必须是正的单位矩阵(identity)
- 每一列算符的乘积必须是负的单位矩阵
- 额外的要求:这些算符必须有关联测量。在量子力学中,关联测量它就意味着这些算符之间互相是对易的。
我们可以找到一些算符的解
其中
和 类似于二维版本的位置和动量的关系,因为他们是通过一个傅里叶变换 联系起来
4.1.2. 互文
- 所以在经典中我们找不到解,在量子版本中找得到解
- 解的存在不存在,也可以定义一个类似于贝尔关联的 ,这里我们可以叫成互文的关联。
定义 其中
- 表示第 行,第 列的算符
解的存在不存在,给出不等式
- 隐变量理论:
- 量子理论:
小结
- 由于量子互文的存在,如果一个隐变量里面试图去描述这个量子系统的话,他就需要去记住更多的信息。
- 比如例子中需要记住到底是在哪一个框,在哪一个 context 下
- 这个跟语言问题很像(语言问题中上下文相关性),这也是为什么有"量子互文"这样一个名字。
4.2. 序列模型
序列生成模型
- 测 X 观测量,给出测量结果 Y
- 测量之后系统有可能会被扰动,体现在 的变化上
- 系统演化由这个参数 来刻画。
- 测量带来的扰动,就是前面说的测不准原理,我们把这个情况也包进去,然后包进来的话
- 对于离散模型:例如隐马尔可夫模型(hidden Markov model)
- 对于连续变量模型。例如递归神经网络(RNN)
这个模型有一些应用,比如语言翻译问题(translation problem)
4.2.1. 演讲者的模型
和上图类似,做一些替换
- 观测量
- 测量结果
- 训练参数
- 携带信息的量子态
结果-1 表达能力
最近有一些结果证明了同样是这样一个图示, 是经典的隐变量还是量子态,他们之间的表达能力是有区别的。
- 量子模型需要隐藏的神经元/量子比特作为latent variables;
- 任何经典模型至少需要隐藏的神经元/比特隐变量。
结果-2 应用翻译
应用到英语到西班牙语的翻译
最早的模型QRNN
- 对照的模型:RNN: gated-recurrent-unit (GRU), a variant of LSTM
都是用了 20 个神经元
从图上看出,QRNN的翻译结果更好
4.3. 附录:相关资源
- 本次分享的主要参考文献:Chapter 2 of "Alber G, Beth T, Horodecki M, Horodecki P, Horodecki R, Rötteler M, Weinfurter H, Werner R, Zeilinger A. Quantum information: An introduction to basic theoretical concepts and experiments. Springer"
- Wikipedia on quantum contextuality: https://en.wikipedia.org/wiki/Quantum_pseudo-telepathy
- 演讲者的原创工作 My own work on quantum correlation \& generative models "Gao , Anschuetz ER, Wang ST, Cirac Jl, Lukin MD. Enhancing generative models via quantum correlations. arXiv preprint arXiv:2101.08354. 2021 Jan 20." \& "Anschuets ER, HY Hu, JL Huang, Gao X. In preparation"