論文の概要: Subtleties in the trainability of quantum machine learning models
- arxiv url: http://arxiv.org/abs/2110.14753v1
- Date: Wed, 27 Oct 2021 20:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:45:53.614914
- Title: Subtleties in the trainability of quantum machine learning models
- Title(参考訳): 量子機械学習モデルの学習能力の微妙さ
- Authors: Supanut Thanasilp, Samson Wang, Nhat A. Nghiem, Patrick J. Coles, M.
Cerezo
- Abstract要約: 本稿では,変分量子アルゴリズムの勾配スケーリング結果を用いて,量子機械学習モデルの勾配スケーリングについて検討する。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new paradigm for data science has emerged, with quantum data, quantum
models, and quantum computational devices. This field, called Quantum Machine
Learning (QML), aims to achieve a speedup over traditional machine learning for
data analysis. However, its success usually hinges on efficiently training the
parameters in quantum neural networks, and the field of QML is still lacking
theoretical scaling results for their trainability. Some trainability results
have been proven for a closely related field called Variational Quantum
Algorithms (VQAs). While both fields involve training a parametrized quantum
circuit, there are crucial differences that make the results for one setting
not readily applicable to the other. In this work we bridge the two frameworks
and show that gradient scaling results for VQAs can also be applied to study
the gradient scaling of QML models. Our results indicate that features deemed
detrimental for VQA trainability can also lead to issues such as barren
plateaus in QML. Consequently, our work has implications for several QML
proposals in the literature. In addition, we provide theoretical and numerical
evidence that QML models exhibit further trainability issues not present in
VQAs, arising from the use of a training dataset. We refer to these as
dataset-induced barren plateaus. These results are most relevant when dealing
with classical data, as here the choice of embedding scheme (i.e., the map
between classical data and quantum states) can greatly affect the gradient
scaling.
- Abstract(参考訳): データサイエンスの新しいパラダイムが出現し、量子データ、量子モデル、量子計算デバイスが登場した。
この分野はQuantum Machine Learning (QML)と呼ばれ、従来の機械学習によるデータ分析の高速化を目指している。
しかしながら、その成功は通常、量子ニューラルネットワークのパラメータを効率的にトレーニングすることに集中しており、QMLの分野はトレーニング容易性に関する理論的スケーリング結果に欠けている。
いくつかのトレーサビリティの結果は、変分量子アルゴリズム(vqas)と呼ばれる密接に関連する分野で証明されている。
どちらの分野もパラメトリズド量子回路の訓練を伴うが、一方の設定の結果を他方に容易に適用できない重要な違いがある。
本稿では,2つのフレームワークをブリッジし,VQAの勾配スケーリング結果をQMLモデルの勾配スケーリングに応用できることを示す。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
その結果,本研究は文献におけるいくつかのQML提案に影響を及ぼす。
さらに,QMLモデルがトレーニングデータセットの使用によって生じる,VQAに存在しない更なるトレーニング可能性の問題を示すという理論的および数値的な証拠を提供する。
我々はこれらをデータセット誘導バレン台地と呼ぶ。
これらの結果は古典データを扱う際に最も重要であり、ここでは埋め込みスキームの選択(つまり、古典データと量子状態の間の写像)が勾配スケーリングに大きく影響する。
関連論文リスト
- Quantum Active Learning [3.3202982522589934]
量子ニューラルネットワークのトレーニングは通常、教師付き学習のための実質的なラベル付きトレーニングセットを必要とする。
QALはモデルを効果的にトレーニングし、完全にラベル付けされたデータセットに匹敵するパフォーマンスを達成する。
我々は,QALがランダムサンプリングベースラインに乗じて負の結果を微妙な数値実験により解明する。
論文 参考訳(メタデータ) (2024-05-28T14:39:54Z) - Transition Role of Entangled Data in Quantum Machine Learning [51.6526011493678]
エンタングルメントは量子コンピューティングを強化するリソースとして機能する。
最近の進歩は量子力学の学習に対する肯定的な影響を浮き彫りにした。
我々は、絡み合ったデータを用いて量子力学を学習するための量子no-free-lunch(NFL)定理を確立する。
論文 参考訳(メタデータ) (2023-06-06T08:06:43Z) - Classical-to-Quantum Transfer Learning Facilitates Machine Learning with Variational Quantum Circuit [62.55763504085508]
本稿では,変分量子回路(VQC)を用いた古典的量子移動学習アーキテクチャにより,VQCモデルの表現と一般化(推定誤差)が向上することを証明する。
古典-量子遷移学習のアーキテクチャは、事前学習された古典的生成AIモデルを活用し、訓練段階におけるVQCの最適パラメータの発見を容易にする。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Reflection Equivariant Quantum Neural Networks for Enhanced Image
Classification [0.7232471205719458]
我々は、データに固有の対称性を明示的に尊重する新しい機械学習モデル、いわゆる幾何量子機械学習(GQML)を構築した。
これらのネットワークは、複雑な実世界の画像データセットに対する一般的なアンサーゼを一貫して、そして著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-01T04:10:26Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Entangled Datasets for Quantum Machine Learning [0.0]
代わりに量子状態からなる量子データセットを使うべきだと我々は主張する。
NTangledデータセットの状態を生成するために量子ニューラルネットワークをどのように訓練するかを示す。
また、拡張性があり、量子回路によって準備された状態で構成される、別の絡み合いベースのデータセットについても検討する。
論文 参考訳(メタデータ) (2021-09-08T02:20:13Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Hybrid Quantum-Classical Graph Convolutional Network [7.0132255816377445]
本研究は、HEPデータを学習するためのハイブリッド量子古典グラフ畳み込みネットワーク(QGCNN)を提供する。
提案フレームワークは,パラメータ数の観点から,古典的多層パーセプトロンと畳み込みニューラルネットワークの優位性を示す。
テスト精度に関して、QGCNNは、同じHEPデータセット上の量子畳み込みニューラルネットワークと同等のパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-01-15T16:02:52Z) - Quantum circuit architecture search for variational quantum algorithms [88.71725630554758]
本稿では、QAS(Quantum Architecture Search)と呼ばれるリソースと実行時の効率的なスキームを提案する。
QASは、よりノイズの多い量子ゲートを追加することで得られる利点と副作用のバランスをとるために、自動的にほぼ最適アンサッツを求める。
数値シミュレータと実量子ハードウェアの両方に、IBMクラウドを介してQASを実装し、データ分類と量子化学タスクを実現する。
論文 参考訳(メタデータ) (2020-10-20T12:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。