Press "Enter" to skip to content

LANL的研究人员证明,量子卷积神经网络中不存在「贫瘠高原」

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

编辑 | 萝卜皮

 

随着量子计算机的出现,已经提出了许多不同的架构,它们可以提供优于经典对应物的优势。量子神经网络(QNN)是最有前途的架构之一,其应用包括物理模拟、优化和更一般的机器学习任务。尽管 QNN 具有巨大的潜力,但已被证明表现出「贫瘠高原」,其中成本函数的梯度随系统大小呈指数级消失,使得该架构无法针对大型问题进行训练。

 

在这里,阿拉莫斯实验室(Los Alamos National Laboratory,LANL)与伦敦大学的研究人员合作,展示了一个特定的 QNN 架构不存在贫瘠高原。

 

研究人员分析了一种称为量子卷积神经网络(QCNN)的架构,该架构最近被提出用于解决量子数据的分类问题。例如,可以训练 QCNN 根据它们所属的物质相对量子态进行分类。且研究人员证明 QCNN 不会受到贫瘠高原的影响,因此将它们突出显示为在短期内实现量子优势的潜在候选架构。

 

该研究以「 Absence of Barren Plateaus in Quantum Convolutional Neural Networks 」为题,于 2021 年 10 月 15 日发布在《 PHYSICAL REVIEW X 》。

 

 

QNN 围绕有效分析量子数据的可能性引起了人们的兴趣。但这种兴奋已经被许多 QNN 架构的指数级消失梯度(称为贫瘠高原景观)的存在所缓和。最近,已经提出了QCNN,涉及一系列卷积层和池化层,这些层减少了量子比特的数量,同时保留了有关数据特征的信息。

 

 

QCNN 的示意图。

 

在这项工作中,研究人员严格分析了 QCNN 架构中参数的梯度缩放。结果发现梯度的方差消失的速度并不比多项式更快,这意味着 QCNN 没有表现出贫瘠的高原。该结果为随机初始化的 QCNN 的可训练性提供了分析保证,这突出了 QCNN 在随机初始化下可训练。这与许多其他 QNN 架构不同。

 

为了得出结果,研究人员引入了一种新的基于图的方法来分析 Haar 分布式幺正的期望值;这可能在其他情况下有用;另外,研究人员进行了数值模拟,以验证分析结果。

 

 

QCNN 的张量网络表示。

 

作为一种人工智能方法,QCNN 受到视觉皮层的启发。因此,它们涉及一系列卷积层或过滤器,与池化层交错,在保持数据集的重要特征的同时降低数据的维度。这些神经网络可用于解决一系列问题,从图像识别到材料发现。克服贫瘠的高原是挖掘量子计算机在人工智能应用中的全部潜力并展示其优于经典计算机的关键。

 

Marco Cerezo(论文合着者之一)说,到目前为止,量子机器学习的研究人员分析了如何减轻贫瘠高原的影响,但他们缺乏完全避免它的理论基础。LANL 的工作展示了一些量子神经网络实际上不受贫瘠高原的影响。

 

「有了这个保证,研究人员现在将能够筛选关于量子系统的量子计算机数据,并将这些信息用于研究材料特性或发现新材料等方面。」LANL 的量子物理学家 Patrick Coles 说。

 

Coles 认为,随着研究人员更频繁地使用近期量子计算机并生成越来越多的数据,将会出现更多量子人工智能算法的应用程序——所有机器学习程序都需要大量数据。

 

 

QCNN 架构的 GRIM 模块。

 

40 多年来,物理学家一直认为量子计算机将被证明可用于模拟和理解粒子的量子系统,这会扼杀传统的经典计算机。LANL 研究证明稳健的量子卷积神经网络类型有望在分析量子模拟数据方面获得应用。

 

「量子机器学习领域起步较晚。」Coles 说,「关于激光有一句名言,当它们第一次被发现时,人们说它们是寻找问题的解决方案。现在到处都在使用激光。同样,我们中的许多人怀疑量子数据能否变得高度可用,可能意味着量子机器学习也会起飞。」

 

例如 Coles 所说,研究重点是陶瓷材料作为高温超导体,这可以改善无摩擦运输,例如磁悬浮列车。但是,分析材料中受温度、压力和杂质影响的大量相的数据,并对相进行分类是一项超出经典计算机能力的艰巨任务。使用可扩展的量子神经网络,量子计算机可以筛选关于给定材料的各种状态的大量数据集,并将这些状态与相相关联,以确定高温超导的最佳状态。

 

论文作者 Arthur Pesah 表示:「随着 QNN 领域的蓬勃发展,我们相信对其他候选架构进行类似的分析非常重要,我们工作中开发的技术可以用作此类分析的蓝图。」

 

论文链接: https://journals.aps.org/prx/abstract/10.1103/PhysRevX.11.041011

 

相关报道: https://phys.org/news/2021-10-breakthrough-proof-path-quantum-ai.html

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注