論文の概要: Out-of-distribution generalization for learning quantum dynamics
- arxiv url: http://arxiv.org/abs/2204.10268v3
- Date: Sun, 9 Jul 2023 04:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 19:34:39.582435
- Title: Out-of-distribution generalization for learning quantum dynamics
- Title(参考訳): 量子力学学習のための分布外一般化
- Authors: Matthias C. Caro, Hsin-Yuan Huang, Nicholas Ezzell, Joe Gibbs, Andrew
T. Sornborger, Lukasz Cincio, Patrick J. Coles, Zo\"e Holmes
- Abstract要約: 積状態のみを訓練した絡み合った状態に対するユニタリの作用を学習できることが示される。
これは、短期量子ハードウェア上で量子力学を学ぶことの展望を前進させる。
- 参考スコア(独自算出の注目度): 2.1503874224655997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalization bounds are a critical tool to assess the training data
requirements of Quantum Machine Learning (QML). Recent work has established
guarantees for in-distribution generalization of quantum neural networks
(QNNs), where training and testing data are drawn from the same data
distribution. However, there are currently no results on out-of-distribution
generalization in QML, where we require a trained model to perform well even on
data drawn from a different distribution to the training distribution. Here, we
prove out-of-distribution generalization for the task of learning an unknown
unitary. In particular, we show that one can learn the action of a unitary on
entangled states having trained only product states. Since product states can
be prepared using only single-qubit gates, this advances the prospects of
learning quantum dynamics on near term quantum hardware, and further opens up
new methods for both the classical and quantum compilation of quantum circuits.
- Abstract(参考訳): 一般化バウンダリは、量子機械学習(QML)のトレーニングデータ要求を評価する重要なツールである。
最近の研究は、同じデータ分布からトレーニングとテストデータを引き出す量子ニューラルネットワーク(QNN)の分散内一般化の保証を確立している。
しかし,qmlでは,異なる分布からトレーニング分布へ引き出されたデータに対しても,トレーニングモデルがうまく機能するように要求されるため,分散一般化の結果は得られていない。
ここでは,未知のユニタリを学習するタスクに対する分散の一般化を証明する。
特に,積状態のみを訓練することで,絡み合った状態に対するユニタリの作用を学習できることを示す。
積状態は単一量子ビットゲートのみを使用して作成できるため、近距離量子ハードウェア上での量子力学の学習の展望を前進させ、量子回路の古典的および量子的コンパイルのための新しい方法をさらに開ける。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Understanding quantum machine learning also requires rethinking
generalization [0.3683202928838613]
一般化を理解する従来のアプローチでは、量子モデルの振る舞いを説明できないことを示す。
実験によると、最先端の量子ニューラルネットワークはトレーニングデータのランダムな状態とランダムなラベル付けに正確に適合している。
論文 参考訳(メタデータ) (2023-06-23T12:04:13Z) - Generalization of Quantum Machine Learning Models Using Quantum Fisher Information Metric [0.0]
データ量子フィッシャー情報メートル法(DQFIM)を導入する。
変分量子アルゴリズムのキャパシティは、変分アンサッツ、トレーニングデータ、およびそれらの対称性に依存する。
リー代数を用いて、低数の訓練状態を用いて一般化する方法を説明する。
最後に、異なるデータ分布からトレーニングデータとテストデータを描画するアウト・オブ・ディストリビューションの一般化が、同じ分布を使用するよりも優れていることを発見した。
論文 参考訳(メタデータ) (2023-03-23T17:32:20Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Protocols for classically training quantum generative models on
probability distributions [17.857341127079305]
量子生成モデリング(QGM)は、量子状態を作成し、サンプルを隠れた(あるいは既知の)確率分布として生成することに依存する。
そこで本研究では,QGMの高速勾配を考慮した回路に基づく古典的学習手法を提案する。
通常のデスクトップコンピュータ上で最大30キュービットの確率分布を用いたIQP回路のエンドツーエンドのトレーニングを数値的に示す。
論文 参考訳(メタデータ) (2022-10-24T17:57:09Z) - Do Quantum Circuit Born Machines Generalize? [58.720142291102135]
本稿では,量子生成モデルの積分評価指標としてQCBMの一般化性能を示す文献で最初に紹介する。
そこで本研究では,QCBMがデータセットの再重み付けを効果的に学習し,未確認のサンプルをトレーニングセットよりも高い品質で生成可能であることを示す。
論文 参考訳(メタデータ) (2022-07-27T17:06:34Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Generalization in quantum machine learning from few training data [4.325561431427748]
現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
論文 参考訳(メタデータ) (2021-11-09T17:49:46Z) - Learnability of the output distributions of local quantum circuits [53.17490581210575]
2つの異なるオラクルモデルにおいて、量子回路Bornマシンの学習可能性について検討する。
我々はまず,超対数深度クリフォード回路の出力分布がサンプル効率良く学習できないという負の結果を示した。
より強力なオラクルモデル、すなわちサンプルに直接アクセスすると、局所的なクリフォード回路の出力分布は計算効率よくPACを学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-11T18:00:20Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。