近日,《自然·通讯》在线发表了武汉大学计算机学院在量子人工智能理论方面的最新研究成果。论文题为《纠缠数据在量子机器学习中的相变行为》。这是武汉大学量子机器学习方向研究成果首次刊登在《自然·通讯》上。
论文截图。
据悉,量子纠缠是实现量子计算优势的关键资源。目前,科学家广泛关注如何将量子纠缠整合到量子机器学习模型的各个环节(如纠缠测量和量子演化算子),以期超越传统机器学习模型的性能。相较于同等规模的经典数据,量子纠缠数据因其能够编码更多的信息而备受关注,被认为是实现量子优势的一条有效途径。但量子数据的纠缠程度如何具体影响模型性能,仍然是一个尚未解决且颇具挑战性的研究课题。
该研究通过建立量子“没有免费午餐”定理显式地分析了量子数据纠缠程度、测量次数以及训练数据集规模对量子机器学习模型预测误差的影响。该研究首次证明量子纠缠是否提升性能取决于允许的测量次数,量子数据的纠缠程度对预测误差的影响表现出双重效应:对于足够数量的测量,增加训练数据的纠缠可以有效地减少预测误差,或减小实现相同预测误差所需的训练数据大小;当允许的测量次数较少时,使用高度纠缠的数据可能会导致预测误差增加。面对当前量子计算机有限的量子计算资源,该研究为设计先进的量子机器学习协议提供了重要指导。
此外,该研究使用统计学习理论和信息论的相关工具对量子纠缠数据对模型性能的影响进行了精细化的理论分析,并建立了一种对于量子机器学习模型误差下界的分析范式,为研究其他量子计算问题(如量子过程层析、量子误差缓解等)提供一种新的分析方法。(来源:中国科学报 李思辉 吴昊)
相关论文信息:https://www.nature.com/articles/s41467-024-47983-1#Ack1