論文の概要: On the relation between trainability and dequantization of variational quantum learning models
- arxiv url: http://arxiv.org/abs/2406.07072v1
- Date: Tue, 11 Jun 2024 08:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 16:44:39.030239
- Title: On the relation between trainability and dequantization of variational quantum learning models
- Title(参考訳): 変分量子学習モデルの訓練可能性と定式化の関係について
- Authors: Elies Gil-Fuster, Casper Gyurik, Adrián Pérez-Salinas, Vedran Dunjko,
- Abstract要約: 変分量子機械学習(QML)のトレーニング容易性と定式化の関係について検討する。
我々はPQCベースのQMLモデルを構築するためのレシピを紹介した。
しかしながら、我々の研究は、より一般的な構造を見つけるための道のりを指している。
- 参考スコア(独自算出の注目度): 1.7999333451993955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quest for successful variational quantum machine learning (QML) relies on the design of suitable parametrized quantum circuits (PQCs), as analogues to neural networks in classical machine learning. Successful QML models must fulfill the properties of trainability and non-dequantization, among others. Recent works have highlighted an intricate interplay between trainability and dequantization of such models, which is still unresolved. In this work we contribute to this debate from the perspective of machine learning, proving a number of results identifying, among others when trainability and non-dequantization are not mutually exclusive. We begin by providing a number of new somewhat broader definitions of the relevant concepts, compared to what is found in other literature, which are operationally motivated, and consistent with prior art. With these precise definitions given and motivated, we then study the relation between trainability and dequantization of variational QML. Next, we also discuss the degrees of "variationalness" of QML models, where we distinguish between models like the hardware efficient ansatz and quantum kernel methods. Finally, we introduce recipes for building PQC-based QML models which are both trainable and nondequantizable, and corresponding to different degrees of variationalness. We do not address the practical utility for such models. Our work however does point toward a way forward for finding more general constructions, for which finding applications may become feasible.
- Abstract(参考訳): 変分量子機械学習(QML)の成功の探求は、古典的な機械学習におけるニューラルネットワークの類似として、適切なパラメタライズド量子回路(PQC)の設計に依存している。
成功したQMLモデルは、トレーニング容易性や非分散化の特性を満たさなければならない。
最近の研究は、トレーニング容易性とそのようなモデルのデクエント化の間の複雑な相互作用を強調しているが、未解決のままである。
本研究は、機械学習の観点からこの議論に寄与し、トレーニング容易性や非分散化が相互に排他的でない場合など、多くの結果を特定する。
我々はまず、他の文献で見られるものと比較して、関連する概念のより広範な定義を新たに提供することから始めます。
これらの正確な定義とモチベーションにより、学習可能性と変分QMLの定式化の関係について検討する。
次に、QMLモデルの「変分性」の度合いについても論じ、ハードウェア効率の良いアンサッツ法や量子カーネル法のようなモデルを区別する。
最後に,PQCベースのQMLモデルを構築するためのレシピを紹介した。
このようなモデルの実用性には対処しない。
しかしながら、我々の研究は、より一般的な構造を見つけるための道のりを指している。
関連論文リスト
- Problem-informed Graphical Quantum Generative Learning [0.3914676152740143]
確率変数の共役確率分布を学習するための問題インフォームド量子回路Born Machine Ansatzを提案する。
モデルの性能を従来の設計と比較し,問題に依存しない回路よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-23T00:29:35Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - PreQuant: A Task-agnostic Quantization Approach for Pre-trained Language
Models [52.09865918265002]
ファインチューニングのフレームワークPreQuantに先立って,新しい量子化を提案する。
PreQuantは様々な量子化戦略と互換性があり、インダクションされた量子化誤差を修正するために、アウタリア対応の微調整が組み込まれている。
BERT,RoBERTa,T5を用いたGLUEベンチマークにおけるPreQuantの有効性を示す。
論文 参考訳(メタデータ) (2023-05-30T08:41:33Z) - Classical-to-Quantum Transfer Learning Facilitates Machine Learning with Variational Quantum Circuit [62.55763504085508]
本稿では,変分量子回路(VQC)を用いた古典的量子移動学習アーキテクチャにより,VQCモデルの表現と一般化(推定誤差)が向上することを証明する。
古典-量子遷移学習のアーキテクチャは、事前学習された古典的生成AIモデルを活用し、訓練段階におけるVQCの最適パラメータの発見を容易にする。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - QNEAT: Natural Evolution of Variational Quantum Circuit Architecture [95.29334926638462]
我々は、ニューラルネットワークの量子対する最も有望な候補として登場した変分量子回路(VQC)に注目した。
有望な結果を示す一方で、バレン高原、重みの周期性、アーキテクチャの選択など、さまざまな問題のために、VQCのトレーニングは困難である。
本稿では,VQCの重みとアーキテクチャの両方を最適化するために,自然進化にインスパイアされた勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-14T08:03:20Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Copula-based Risk Aggregation with Trapped Ion Quantum Computers [1.541403735141431]
コプラは、合同確率分布をモデル化するための数学的ツールである。
コプラを最大絡み合った量子状態として表現できることの最近の発見は、実用的な量子優位性に対する有望なアプローチを明らかにしている。
シミュレータと最先端のイオン量子コンピュータ上での回路設計と精度の異なるQCBMのトレーニングについて検討する。
論文 参考訳(メタデータ) (2022-06-23T18:39:30Z) - Subtleties in the trainability of quantum machine learning models [0.0]
本稿では,変分量子アルゴリズムの勾配スケーリング結果を用いて,量子機械学習モデルの勾配スケーリングについて検討する。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-27T20:28:53Z) - Predicting toxicity by quantum machine learning [11.696069523681178]
本研究では, 定量的構造活性相関に基づく221種類のフェノールの毒性予測のためのQMLモデルを開発した。
その結果、量子エンタングルメントによって強化されたデータエンコーディングは、従来のエンタングルよりも表現力が高いことが示唆された。
論文 参考訳(メタデータ) (2020-08-18T02:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。