論文の概要: Generalization in quantum machine learning from few training data
- arxiv url: http://arxiv.org/abs/2111.05292v1
- Date: Tue, 9 Nov 2021 17:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:09:53.355694
- Title: Generalization in quantum machine learning from few training data
- Title(参考訳): 少ないトレーニングデータからの量子機械学習の一般化
- Authors: Matthias C. Caro, Hsin-Yuan Huang, M. Cerezo, Kunal Sharma, Andrew
Sornborger, Lukasz Cincio, Patrick J. Coles
- Abstract要約: 現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
- 参考スコア(独自算出の注目度): 4.325561431427748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern quantum machine learning (QML) methods involve variationally
optimizing a parameterized quantum circuit on a training data set, and
subsequently making predictions on a testing data set (i.e., generalizing). In
this work, we provide a comprehensive study of generalization performance in
QML after training on a limited number $N$ of training data points. We show
that the generalization error of a quantum machine learning model with $T$
trainable gates scales at worst as $\sqrt{T/N}$. When only $K \ll T$ gates have
undergone substantial change in the optimization process, we prove that the
generalization error improves to $\sqrt{K / N}$. Our results imply that the
compiling of unitaries into a polynomial number of native gates, a crucial
application for the quantum computing industry that typically uses
exponential-size training data, can be sped up significantly. We also show that
classification of quantum states across a phase transition with a quantum
convolutional neural network requires only a very small training data set.
Other potential applications include learning quantum error correcting codes or
quantum dynamical simulation. Our work injects new hope into the field of QML,
as good generalization is guaranteed from few training data.
- Abstract(参考訳): 現代の量子機械学習(QML)法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化し、その後、テストデータセット(一般化)上で予測を行う。
本研究では,QMLにおける学習データ点数に限定したN$の学習後の一般化性能に関する総合的研究を行う。
トレーニング可能なゲートが$T$である量子機械学習モデルの一般化誤差は$\sqrt{T/N}$と最悪の値でスケールすることを示す。
最適化過程において、K \ll T$ ゲートのみが大幅に変化したとき、一般化誤差が $\sqrt{K / N}$ に改善されることを証明する。
この結果から,指数関数サイズのトレーニングデータを使用する量子コンピューティング産業にとって重要な応用である,多項式数のネイティブゲートへのユニタリのコンパイルが,大幅に高速化できることが示唆された。
また,量子畳み込みニューラルネットワークを用いた相転移における量子状態の分類は,非常に小さなトレーニングデータセットのみを必要とすることを示した。
他の潜在的な応用としては、量子エラー訂正符号の学習や量子力学シミュレーションがある。
我々の研究は、QMLの分野に新たな希望を注入し、優れた一般化は、少数のトレーニングデータから保証される。
関連論文リスト
- Variational quantum regression algorithm with encoded data structure [0.21756081703276003]
量子状態が古典的データテーブルを直接エンコードする量子回帰アルゴリズムを構築する。
量子サブルーチンを通して、古典的なデータ構造のリンクを直接利用することができることを示す。
論文 参考訳(メタデータ) (2023-07-07T00:30:16Z) - Transition role of entangled data in quantum machine learning [65.73265547435442]
エンタングルメントは量子コンピューティングを強化するリソースとして機能する。
最近の進歩は量子力学の学習に対する肯定的な影響を浮き彫りにした。
我々は、絡み合ったデータを用いて量子力学を学習するための量子no-free-lunch(NFL)定理を確立する。
論文 参考訳(メタデータ) (2023-06-06T08:06:43Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Theoretical Guarantees for Permutation-Equivariant Quantum Neural
Networks [0.0]
等変量子ニューラルネットワーク(QNN)の構築方法を示す。
我々は、不毛の高原に苦しめられず、すぐに過度なパラメータ化に達し、少量のデータからよく一般化されることを証明した。
我々の研究は、同変QNNに対する最初の理論的保証を提供し、GQMLの極端なパワーとポテンシャルを示している。
論文 参考訳(メタデータ) (2022-10-18T16:35:44Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - Out-of-distribution generalization for learning quantum dynamics [2.1503874224655997]
積状態のみを訓練した絡み合った状態に対するユニタリの作用を学習できることが示される。
これは、短期量子ハードウェア上で量子力学を学ぶことの展望を前進させる。
論文 参考訳(メタデータ) (2022-04-21T17:15:23Z) - Optimal quantum dataset for learning a unitary transformation [5.526775342940154]
ユニタリ変換を効率的に学習する方法は、量子機械学習の基本的な問題である。
正確なトレーニングに十分な$n+1$混合状態からなる量子データセットを導入する。
混合状態を持つ量子データセットのサイズを定数に縮めることで、ユニタリ学習のための最適な量子データセットが得られることを示す。
論文 参考訳(メタデータ) (2022-03-01T15:29:39Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum Gram-Schmidt Processes and Their Application to Efficient State
Read-out for Quantum Algorithms [87.04438831673063]
本稿では、生成した状態の古典的ベクトル形式を生成する効率的な読み出しプロトコルを提案する。
我々のプロトコルは、出力状態が入力行列の行空間にある場合に適合する。
我々の技術ツールの1つは、Gram-Schmidt正則手順を実行するための効率的な量子アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-14T11:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。