論文の概要: Stability and Generalization of Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2501.12737v1
- Date: Wed, 22 Jan 2025 09:12:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:34.316546
- Title: Stability and Generalization of Quantum Neural Networks
- Title(参考訳): 量子ニューラルネットワークの安定性と一般化
- Authors: Jiaqi Yang, Wei Xie, Xiaohua Xu,
- Abstract要約: 量子ニューラルネットワーク(QNN)は、急速に成長する量子機械学習分野において、新興技術として重要な役割を果たす。
我々は、QNNの一般化を研究するために、統計的学習理論、すなわちアルゴリズム的安定性の高度なツールを利用する。
- 参考スコア(独自算出の注目度): 6.842224049271109
- License:
- Abstract: Quantum neural networks (QNNs) play an important role as an emerging technology in the rapidly growing field of quantum machine learning. While their empirical success is evident, the theoretical explorations of QNNs, particularly their generalization properties, are less developed and primarily focus on the uniform convergence approach. In this paper, we exploit an advanced tool in statistical learning theory, i.e., algorithmic stability, to study the generalization of QNNs. We first establish high-probability generalization bounds for QNNs via uniform stability. Our bounds shed light on the key factors influencing the generalization performance of QNNs and provide practical insights into both the design and training processes. We next explore the generalization of QNNs on near-term noisy intermediate-scale quantum (NISQ) devices, highlighting the potential benefits of quantum noise. Moreover, we argue that previous analysis characterizes worst-case generalization guarantees, and we establish a refined optimization-dependent generalization bound for QNNs via on-average stability. Numerical experiments on various real-world datasets support our theoretical findings.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、急速に成長する量子機械学習分野において、新興技術として重要な役割を果たす。
実験的な成功は明らかであるが、QNNの理論的探索、特に一般化特性は発展しておらず、一様収束アプローチに重点を置いている。
本稿では,QNNの一般化を研究するために,統計的学習理論,すなわちアルゴリズム的安定性の高度なツールを利用する。
まず、一様安定性によりQNNの高確率一般化境界を確立する。
我々の限界は、QNNの一般化性能に影響を及ぼす重要な要素に光を当て、設計プロセスとトレーニングプロセスの両方について実践的な洞察を提供する。
次に、近時雑音型中間規模量子(NISQ)デバイスにおけるQNNの一般化について検討し、量子ノイズの潜在的な利点を浮き彫りにする。
さらに, 従来の解析では, 最短ケースの一般化保証を特徴付けており, 平均安定性を生かしてQNNの最適化依存の一般化が確立されている。
実世界の様々なデータセットに関する数値実験は、我々の理論的な発見を支持する。
関連論文リスト
- Unsupervised Quantum Anomaly Detection on Noisy Quantum Processors [1.2325897339438878]
本稿では,一クラス支援ベクトルマシン(OCSVM)アルゴリズムの一般化特性の系統的解析を行う。
結果は理論的にシミュレートされ、トラップイオンおよび超伝導量子プロセッサ上で実験的に検証された。
論文 参考訳(メタデータ) (2024-11-25T22:42:38Z) - Statistical Analysis of Quantum State Learning Process in Quantum Neural
Networks [4.852613028421959]
量子ニューラルネットワーク(QNN)は、短期的な量子優位を追求する上で有望なフレームワークである。
高忠実な初期状態から始まるQNNを用いて未知の量子状態を学ぶためのノーゴー定理を開発する。
論文 参考訳(メタデータ) (2023-09-26T14:54:50Z) - Analyzing Convergence in Quantum Neural Networks: Deviations from Neural
Tangent Kernels [20.53302002578558]
量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)コンピュータで効率的に実装可能なパラメータ化マッピングである。
既存の実証的および理論的研究にもかかわらず、QNNトレーニングの収束は完全には理解されていない。
論文 参考訳(メタデータ) (2023-03-26T22:58:06Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Symmetric Pruning in Quantum Neural Networks [111.438286016951]
量子ニューラルネットワーク(QNN)は、現代の量子マシンの力を発揮する。
ハンドクラフト対称アンサーゼを持つQNNは、一般に非対称アンサーゼを持つものよりも訓練性が高い。
本稿では,QNNのグローバル最適収束を定量化するために,実効量子ニューラルネットワークカーネル(EQNTK)を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:17:55Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Chaos and Complexity from Quantum Neural Network: A study with Diffusion
Metric in Machine Learning [0.0]
量子ニューラルネットワーク(QNN)の機械学習力学における量子カオス現象と複雑性について検討する。
統計的および微分幾何学的手法を用いてQNNの学習理論を研究する。
論文 参考訳(メタデータ) (2020-11-16T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。