論文の概要: Tight Generalization Bound for Supervised Quantum Machine Learning
- arxiv url: http://arxiv.org/abs/2510.24348v1
- Date: Tue, 28 Oct 2025 12:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.107154
- Title: Tight Generalization Bound for Supervised Quantum Machine Learning
- Title(参考訳): 教師付き量子機械学習のためのタイト一般化境界
- Authors: Xin Wang, Rebing Wu,
- Abstract要約: 我々は、広範囲の教師付きタスク、データ、モデルに適用可能な量子機械学習の厳密な一般化を導出する。
私たちの境界は、効率的に計算可能であり、Big-O表記は不要です。
ラベルが完全にランダム化されている場合でも、我々の厳密な一般化上限が成り立つことを示す。
- 参考スコア(独自算出の注目度): 3.6641231031729173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We derive a tight generalization bound for quantum machine learning that is applicable to a wide range of supervised tasks, data, and models. Our bound is both efficiently computable and free of big-O notation. Furthermore, we point out that previous bounds relying on big-O notation may provide misleading suggestions regarding the generalization error. Our generalization bound demonstrates that for quantum machine learning models of arbitrary size and depth, the sample size is the most dominant factor governing the generalization error. Additionally, the spectral norm of the measurement observable, the bound and Lipschitz constant of the selected risk function also influence the generalization upper bound. However, the number of quantum gates, the number of qubits, data encoding methods, and hyperparameters chosen during the learning process such as batch size, epochs, learning rate, and optimizer do not significantly impact the generalization capability of quantum machine learning. We experimentally demonstrate the tightness of our generalization bound across classification and regression tasks. Furthermore, we show that our tight generalization upper bound holds even when labels are completely randomized. We thus bring clarity to the fundamental question of generalization in quantum machine learning.
- Abstract(参考訳): 我々は、広範囲の教師付きタスク、データ、モデルに適用可能な量子機械学習の厳密な一般化を導出する。
私たちの境界は、効率的に計算可能であり、Big-O表記は不要です。
さらに,従来の大文字表記に依存した境界は,一般化誤差に関する誤解を招く可能性があることを指摘する。
我々の一般化境界は、任意のサイズと深さの量子機械学習モデルに対して、サンプルサイズが一般化誤差を支配する最も支配的な要因であることを証明している。
さらに、測定のスペクトルノルム、選択されたリスク関数の有界およびリプシッツ定数も一般化上界に影響を与える。
しかし、バッチサイズ、エポックス、学習速度、オプティマイザといった学習プロセスで選択された量子ゲートの数、量子ビット数、データ符号化方法、ハイパーパラメータは、量子機械学習の一般化能力に大きな影響を与えない。
分類タスクと回帰タスクにまたがる一般化の厳密さを実験的に実証する。
さらに、ラベルが完全にランダム化されている場合でも、我々の厳密な一般化上限が成り立つことを示す。
したがって、量子機械学習における一般化の根本的な問題に明確性をもたらす。
関連論文リスト
- Compute-Optimal LLMs Provably Generalize Better With Scale [102.29926217670926]
我々は,大規模言語モデル(LLM)の事前学習目標に基づく一般化境界を開発する。
損失関数の分散を考慮し, 既存の境界を緩める, 完全経験的フリードマン型マルティンゲール濃度を導入する。
我々は一般化ギャップのスケーリング法則を作成し、その境界はスケールによって予測的に強くなる。
論文 参考訳(メタデータ) (2025-04-21T16:26:56Z) - Few measurement shots challenge generalization in learning to classify entanglement [0.0]
本稿では,古典的機械学習手法を量子アルゴリズムと組み合わせたハイブリッド量子学習技術に焦点を当てる。
いくつかの設定では、いくつかの測定ショットから生じる不確実性がエラーの主な原因であることを示す。
従来の影をベースとした推定器を導入し,その性能を向上する。
論文 参考訳(メタデータ) (2024-11-10T21:20:21Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Quantum Kernel Machine Learning With Continuous Variables [0.0]
量子カーネルを連続変数量子コンピューティングプラットフォームのための閉形式関数として表現する。
すべての核がガウス函数の積として表現され、特徴写像のパラメータの代数函数として表されることを示す。
我々は、GKP状態符号化のような無限星級数の特徴写像で定義されるカーネルを、有限星級数の特徴写像で定義されるカーネルによって任意に近似することができることを証明した。
論文 参考訳(メタデータ) (2024-01-11T03:49:40Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Bandwidth Enables Generalization in Quantum Kernel Models [16.940180366663903]
近年の研究では、量子モデルの一般化は、量子特徴空間の指数的サイズによって妨げられていることが示されている。
帯域幅の変化は,任意の対象関数への一般化が不可能なモデルから,適切に整合した目標に対する適切な一般化へと導かれることを示す。
論文 参考訳(メタデータ) (2022-06-14T08:41:08Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。