論文の概要: Out-of-distribution generalization for learning quantum dynamics
- arxiv url: http://arxiv.org/abs/2204.10268v1
- Date: Thu, 21 Apr 2022 17:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 12:57:33.416950
- Title: Out-of-distribution generalization for learning quantum dynamics
- Title(参考訳): 量子力学学習のための分布外一般化
- Authors: Matthias C. Caro, Hsin-Yuan Huang, Nicholas Ezzell, Joe Gibbs, Andrew
T. Sornborger, Lukasz Cincio, Patrick J. Coles, Zo\"e Holmes
- Abstract要約: 一般化境界は量子機械学習(QML)のトレーニングデータ要求を評価する重要なツールである
QNNを用いて未知のユニタリを学習するタスクに対して,分布の一般化を証明した。
ハイゼンベルクスピン鎖の進化は、製品訓練状態のみを用いて学べることを示し、これを数値的に説明する。
- 参考スコア(独自算出の注目度): 2.1503874224655997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalization bounds are a critical tool to assess the training data
requirements of Quantum Machine Learning (QML). Recent work has established
guarantees for in-distribution generalization of quantum neural networks
(QNNs), where training and testing data are assumed to be drawn from the same
data distribution. However, there are currently no results on
out-of-distribution generalization in QML, where we require a trained model to
perform well even on data drawn from a distribution different from the training
distribution. In this work, we prove out-of-distribution generalization for the
task of learning an unknown unitary using a QNN and for a broad class of
training and testing distributions. In particular, we show that one can learn
the action of a unitary on entangled states using only product state training
data. We numerically illustrate this by showing that the evolution of a
Heisenberg spin chain can be learned using only product training states. Since
product states can be prepared using only single-qubit gates, this advances the
prospects of learning quantum dynamics using near term quantum computers and
quantum experiments, and further opens up new methods for both the classical
and quantum compilation of quantum circuits.
- Abstract(参考訳): 一般化バウンダリは、量子機械学習(QML)のトレーニングデータ要求を評価する重要なツールである。
最近の研究は、同じデータ分布からトレーニングデータとテストデータが引き出されると仮定される量子ニューラルネットワーク(QNN)の分布内一般化の保証を確立している。
しかし、現在、qmlの分布外一般化の結果はなく、トレーニング分布とは異なる分布から引き出されたデータでも、トレーニングされたモデルがうまく機能するように要求される。
本稿では,未知のユニタリをqnnを用いて学習するタスクと,幅広いトレーニングおよびテスト分布のクラスに対して,分散の一般化を実証する。
特に,製品状態トレーニングデータのみを使用して,絡み合った状態に対するユニタリの動作を学習できることが示されている。
ハイゼンベルクスピン鎖の進化は、製品訓練状態のみを用いて学習できることを示し、これを数値的に説明する。
生成物の状態は単一量子ビットゲートのみを用いて準備できるため、近未来の量子コンピュータと量子実験を用いて量子力学を学習し、量子回路の古典的および量子的コンパイルのための新しい手法をさらに開放する。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Understanding quantum machine learning also requires rethinking
generalization [0.3683202928838613]
一般化を理解する従来のアプローチでは、量子モデルの振る舞いを説明できないことを示す。
実験によると、最先端の量子ニューラルネットワークはトレーニングデータのランダムな状態とランダムなラベル付けに正確に適合している。
論文 参考訳(メタデータ) (2023-06-23T12:04:13Z) - Generalization of Quantum Machine Learning Models Using Quantum Fisher Information Metric [0.0]
データ量子フィッシャー情報メートル法(DQFIM)を導入する。
変分量子アルゴリズムのキャパシティは、変分アンサッツ、トレーニングデータ、およびそれらの対称性に依存する。
リー代数を用いて、低数の訓練状態を用いて一般化する方法を説明する。
最後に、異なるデータ分布からトレーニングデータとテストデータを描画するアウト・オブ・ディストリビューションの一般化が、同じ分布を使用するよりも優れていることを発見した。
論文 参考訳(メタデータ) (2023-03-23T17:32:20Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Protocols for classically training quantum generative models on
probability distributions [17.857341127079305]
量子生成モデリング(QGM)は、量子状態を作成し、サンプルを隠れた(あるいは既知の)確率分布として生成することに依存する。
そこで本研究では,QGMの高速勾配を考慮した回路に基づく古典的学習手法を提案する。
通常のデスクトップコンピュータ上で最大30キュービットの確率分布を用いたIQP回路のエンドツーエンドのトレーニングを数値的に示す。
論文 参考訳(メタデータ) (2022-10-24T17:57:09Z) - Do Quantum Circuit Born Machines Generalize? [58.720142291102135]
本稿では,量子生成モデルの積分評価指標としてQCBMの一般化性能を示す文献で最初に紹介する。
そこで本研究では,QCBMがデータセットの再重み付けを効果的に学習し,未確認のサンプルをトレーニングセットよりも高い品質で生成可能であることを示す。
論文 参考訳(メタデータ) (2022-07-27T17:06:34Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Generalization in quantum machine learning from few training data [4.325561431427748]
現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
論文 参考訳(メタデータ) (2021-11-09T17:49:46Z) - Learnability of the output distributions of local quantum circuits [53.17490581210575]
2つの異なるオラクルモデルにおいて、量子回路Bornマシンの学習可能性について検討する。
我々はまず,超対数深度クリフォード回路の出力分布がサンプル効率良く学習できないという負の結果を示した。
より強力なオラクルモデル、すなわちサンプルに直接アクセスすると、局所的なクリフォード回路の出力分布は計算効率よくPACを学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-11T18:00:20Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。