量子古典ハイブリッド量子化ニューラルネットワーク

量子古典ハイブリッド量子化ニューラルネットワーク

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2506.18240v3 発表種別:replace-cross

要旨:本研究では、スプライン補間を用いて任意の活性化関数と損失関数の使用を可能にする、量子化ニューラルネットワーク訓練のための新規な二次バイナリ最適化(QBO)モデルを提案する。非線形性とニューラルネットワークにおける多層複合構造の課題に対処するために、活性化関数を線形部分区間に離散化する手法である前方区間伝播(FIP)を導入する。このアプローチは、ニューラルネットワークの普遍近似性を維持しながら、複雑な非線形関数を量子コンピュータを用いて最適化することを可能にし、人工知能における適用範囲を拡大する。最適化の観点から経験リスク最小化問題のサンプル複雑度を導出することにより、近似誤差と必要なイジングスピンの数の上限を理論的に示す。関連する二次制約付きバイナリ最適化(QCBO)モデルを大規模に解く上で大きな課題となるのは、多数の制約の存在である。これらの制約を扱うためにペナルティ法を用いる場合、多数のペナルティ係数の調整が重要なハイパーパラメータ最適化問題となり、計算複雑度が増加し、解の質に影響を与える可能性がある。これに対処するため、量子コンピューティングを利用してQCBO問題を直接解く量子条件付き勾配降下(QCGD)アルゴリズムを用いる。目的関数の値にランダム性と有界分散がある量子オラクルの下、および係数行列における精度制限の下で、QCGDの収束性を証明する。さらに、QCBO解法プロセスのTime-To-Solutionの上限を示す。さらに、単一サンプルビットスケール最適化による訓練アルゴリズムを提案する。

原文(英語)を表示

Title (EN): Quantum-Classical Hybrid Quantized Neural Network

arXiv:2506.18240v3 Announce Type: replace-cross
Abstract: Here in this work, we present a novel Quadratic Binary Optimization (QBO) model for quantized neural network training, enabling the use of arbitrary activation and loss functions through spline interpolation. We introduce Forward Interval Propagation (FIP), a method designed to tackle the challenges of non-linearity and the multi-layer composite structure in neural networks by discretizing activation functions into linear subintervals. This approach preserves the universal approximation properties of neural networks while allowing complex nonlinear functions to be optimized using quantum computers, thus broadening their applicability in artificial intelligence. We provide theoretical upper bounds on the approximation error and the number of Ising spins required, by deriving the sample complexity of the empirical risk minimization problem, from an optimization perspective. A significant challenge in solving the associated Quadratic Constrained Binary Optimization (QCBO) model on a large scale is the presence of numerous constraints. When employing the penalty method to handle these constraints, tuning a large number of penalty coefficients becomes a critical hyperparameter optimization problem, increasing computational complexity and potentially affecting solution quality. To address this, we employ the Quantum Conditional Gradient Descent (QCGD) algorithm, which leverages quantum computing to directly solve the QCBO problem. We prove the convergence of QCGD under a quantum oracle with randomness and bounded variance in objective value, as well as under limited precision constraints in the coefficient matrix. Additionally, we provide an upper bound on the Time-To-Solution for the QCBO solving process. We further propose a training algorithm with single-sample bit-scale optimization.

Published: 2025-09-24 19:00 UTC


コメントする