論文の概要: Generalization in quantum machine learning from few training data
- arxiv url: http://arxiv.org/abs/2111.05292v1
- Date: Tue, 9 Nov 2021 17:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:09:53.355694
- Title: Generalization in quantum machine learning from few training data
- Title(参考訳): 少ないトレーニングデータからの量子機械学習の一般化
- Authors: Matthias C. Caro, Hsin-Yuan Huang, M. Cerezo, Kunal Sharma, Andrew
Sornborger, Lukasz Cincio, Patrick J. Coles
- Abstract要約: 現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
- 参考スコア(独自算出の注目度): 4.325561431427748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern quantum machine learning (QML) methods involve variationally
optimizing a parameterized quantum circuit on a training data set, and
subsequently making predictions on a testing data set (i.e., generalizing). In
this work, we provide a comprehensive study of generalization performance in
QML after training on a limited number $N$ of training data points. We show
that the generalization error of a quantum machine learning model with $T$
trainable gates scales at worst as $\sqrt{T/N}$. When only $K \ll T$ gates have
undergone substantial change in the optimization process, we prove that the
generalization error improves to $\sqrt{K / N}$. Our results imply that the
compiling of unitaries into a polynomial number of native gates, a crucial
application for the quantum computing industry that typically uses
exponential-size training data, can be sped up significantly. We also show that
classification of quantum states across a phase transition with a quantum
convolutional neural network requires only a very small training data set.
Other potential applications include learning quantum error correcting codes or
quantum dynamical simulation. Our work injects new hope into the field of QML,
as good generalization is guaranteed from few training data.
- Abstract(参考訳): 現代の量子機械学習(QML)法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化し、その後、テストデータセット(一般化)上で予測を行う。
本研究では,QMLにおける学習データ点数に限定したN$の学習後の一般化性能に関する総合的研究を行う。
トレーニング可能なゲートが$T$である量子機械学習モデルの一般化誤差は$\sqrt{T/N}$と最悪の値でスケールすることを示す。
最適化過程において、K \ll T$ ゲートのみが大幅に変化したとき、一般化誤差が $\sqrt{K / N}$ に改善されることを証明する。
この結果から,指数関数サイズのトレーニングデータを使用する量子コンピューティング産業にとって重要な応用である,多項式数のネイティブゲートへのユニタリのコンパイルが,大幅に高速化できることが示唆された。
また,量子畳み込みニューラルネットワークを用いた相転移における量子状態の分類は,非常に小さなトレーニングデータセットのみを必要とすることを示した。
他の潜在的な応用としては、量子エラー訂正符号の学習や量子力学シミュレーションがある。
我々の研究は、QMLの分野に新たな希望を注入し、優れた一般化は、少数のトレーニングデータから保証される。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Variational quantum regression algorithm with encoded data structure [0.21756081703276003]
量子状態が古典的データテーブルを直接エンコードする量子回帰アルゴリズムを構築する。
量子サブルーチンを通して、古典的なデータ構造のリンクを直接利用することができることを示す。
論文 参考訳(メタデータ) (2023-07-07T00:30:16Z) - Transition Role of Entangled Data in Quantum Machine Learning [51.6526011493678]
エンタングルメントは量子コンピューティングを強化するリソースとして機能する。
最近の進歩は量子力学の学習に対する肯定的な影響を浮き彫りにした。
我々は、絡み合ったデータを用いて量子力学を学習するための量子no-free-lunch(NFL)定理を確立する。
論文 参考訳(メタデータ) (2023-06-06T08:06:43Z) - Generalization of Quantum Machine Learning Models Using Quantum Fisher Information Metric [0.0]
データ量子フィッシャー情報メートル法(DQFIM)を導入する。
変分量子アルゴリズムのキャパシティは、変分アンサッツ、トレーニングデータ、およびそれらの対称性に依存する。
リー代数を用いて、低数の訓練状態を用いて一般化する方法を説明する。
最後に、異なるデータ分布からトレーニングデータとテストデータを描画するアウト・オブ・ディストリビューションの一般化が、同じ分布を使用するよりも優れていることを発見した。
論文 参考訳(メタデータ) (2023-03-23T17:32:20Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - Out-of-distribution generalization for learning quantum dynamics [2.1503874224655997]
積状態のみを訓練した絡み合った状態に対するユニタリの作用を学習できることが示される。
これは、短期量子ハードウェア上で量子力学を学ぶことの展望を前進させる。
論文 参考訳(メタデータ) (2022-04-21T17:15:23Z) - Optimal quantum dataset for learning a unitary transformation [5.526775342940154]
ユニタリ変換を効率的に学習する方法は、量子機械学習の基本的な問題である。
正確なトレーニングに十分な$n+1$混合状態からなる量子データセットを導入する。
混合状態を持つ量子データセットのサイズを定数に縮めることで、ユニタリ学習のための最適な量子データセットが得られることを示す。
論文 参考訳(メタデータ) (2022-03-01T15:29:39Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum Gram-Schmidt Processes and Their Application to Efficient State
Read-out for Quantum Algorithms [87.04438831673063]
本稿では、生成した状態の古典的ベクトル形式を生成する効率的な読み出しプロトコルを提案する。
我々のプロトコルは、出力状態が入力行列の行空間にある場合に適合する。
我々の技術ツールの1つは、Gram-Schmidt正則手順を実行するための効率的な量子アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-14T11:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。