論文の概要: Bandwidth Enables Generalization in Quantum Kernel Models
- arxiv url: http://arxiv.org/abs/2206.06686v2
- Date: Wed, 15 Jun 2022 13:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 05:59:56.563067
- Title: Bandwidth Enables Generalization in Quantum Kernel Models
- Title(参考訳): 量子カーネルモデルにおける帯域幅の一般化
- Authors: Abdulkadir Canatar, Evan Peters, Cengiz Pehlevan, Stefan M. Wild,
Ruslan Shaydulin
- Abstract要約: 近年の研究では、量子モデルの一般化は、量子特徴空間の指数的サイズによって妨げられていることが示されている。
帯域幅の変化は,任意の対象関数への一般化が不可能なモデルから,適切に整合した目標に対する適切な一般化へと導かれることを示す。
- 参考スコア(独自算出の注目度): 16.940180366663903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum computers are known to provide speedups over classical
state-of-the-art machine learning methods in some specialized settings. For
example, quantum kernel methods have been shown to provide an exponential
speedup on a learning version of the discrete logarithm problem. Understanding
the generalization of quantum models is essential to realizing similar speedups
on problems of practical interest. Recent results demonstrate that
generalization is hindered by the exponential size of the quantum feature
space. Although these results suggest that quantum models cannot generalize
when the number of qubits is large, in this paper we show that these results
rely on overly restrictive assumptions. We consider a wider class of models by
varying a hyperparameter that we call quantum kernel bandwidth. We analyze the
large-qubit limit and provide explicit formulas for the generalization of a
quantum model that can be solved in closed form. Specifically, we show that
changing the value of the bandwidth can take a model from provably not being
able to generalize to any target function to good generalization for
well-aligned targets. Our analysis shows how the bandwidth controls the
spectrum of the kernel integral operator and thereby the inductive bias of the
model. We demonstrate empirically that our theory correctly predicts how
varying the bandwidth affects generalization of quantum models on challenging
datasets, including those far outside our theoretical assumptions. We discuss
the implications of our results for quantum advantage in machine learning.
- Abstract(参考訳): 量子コンピュータは、いくつかの特殊な設定で古典的な最先端の機械学習手法を高速化することが知られている。
例えば、量子カーネルの手法は離散対数問題の学習版で指数関数的な高速化をもたらすことが示されている。
量子モデルの一般化を理解することは、実用上の問題において同様のスピードアップを実現するために不可欠である。
最近の結果は、一般化が量子的特徴空間の指数的大きさによって妨げられることを証明している。
これらの結果は量子モデルが量子ビットの数が大きい場合には一般化できないことを示唆するが、本論文ではこれらの結果は過度に制限的な仮定に依存していることを示す。
我々は、量子カーネル帯域幅と呼ばれるハイパーパラメータを変化させることで、より広いモデルのクラスを考える。
我々は、大量子ビット極限を解析し、閉形式で解ける量子モデルの一般化のための明示的な公式を提供する。
具体的には、帯域幅の値を変更することで、任意の対象関数に一般化できないモデルから、整列した目標に対する良好な一般化を得られることを示す。
本解析では,帯域幅がカーネル積分演算子のスペクトルを制御し,モデルの帰納バイアスを制御していることを示す。
この理論が量子モデルの一般化にどのように影響するかを正確に予測できることを実証的に証明する。
我々は、機械学習における量子優位性に対する結果の意義について論じる。
関連論文リスト
- Generalized geometric speed limits for quantum observables [1.451121761055173]
観測変数の期待値の変化率に関する一般化された量子速度制限を導出する。
これらの境界は部分集合であり、ヒルベルト空間次元$geq 3$に対して、既存の境界を締め付ける。
一般化された境界は、観測変数の期待値の高速な駆動を可能にする「高速」ハミルトニアンを設計するのに使うことができる。
論文 参考訳(メタデータ) (2024-09-06T18:15:58Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Power Characterization of Noisy Quantum Kernels [52.47151453259434]
一般化誤差が小さい場合でも,量子カーネル法は予測能力に乏しい。
我々は、量子計算にノイズの多い量子カーネル法を用いるために重要な警告を提供する。
論文 参考訳(メタデータ) (2024-01-31T01:02:16Z) - Quantum Kernel Machine Learning With Continuous Variables [0.0]
人気の高いqubitフレームワークは、量子カーネル機械学習に関する最近の研究を支配している。
連続変数(CV)量子コンピューティングプラットフォームに対するこれらの概念を理解するための比較フレームワークは存在しない。
論文 参考訳(メタデータ) (2024-01-11T03:49:40Z) - Expressibility-induced Concentration of Quantum Neural Tangent Kernels [4.561685127984694]
量子タンジェントカーネルモデルのトレーニング可能性と表現性の関係について検討する。
大域的損失関数に対して、大域的および局所的な量子符号化の両方の高表現性は、量子接核値の指数集中を0に導くことを厳密に証明する。
我々の発見は量子ニューラル・タンジェント・カーネルの重要な特徴を明らかにし、広い量子変動回路モデルの設計に有用な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-08T19:00:01Z) - Numerical evidence against advantage with quantum fidelity kernels on
classical data [12.621805903645711]
量子核は、量子ビットの数が増加するにつれてスペクトルの指数的な「平坦化」に悩まされることを示す。
これまでに研究されてきた複数の量子特徴写像と、合成データと実データの両方を利用した、この現象の広範な数値的証拠を提供する。
その結果、量子カーネルの帰納バイアスを制御するために新しい手法が開発されない限り、古典的なデータに量子的優位性をもたらすことはありそうにないことがわかった。
論文 参考訳(メタデータ) (2022-11-29T19:23:11Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。