論文の概要: Learnability and Complexity of Quantum Samples
- arxiv url: http://arxiv.org/abs/2010.11983v1
- Date: Thu, 22 Oct 2020 18:45:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:36:01.720921
- Title: Learnability and Complexity of Quantum Samples
- Title(参考訳): 量子サンプルの学習性と複雑さ
- Authors: Murphy Yuezhen Niu, Andrew M. Dai, Li Li, Augustus Odena, Zhengli
Zhao, Vadim Smelyanskyi, Hartmut Neven, and Sergio Boixo
- Abstract要約: 量子回路が与えられた場合、量子コンピュータは古典的コンピュータよりも出力分布を指数関数的に高速にサンプリングすることができる。
一定のトレーニング時間でnでスケールするトレーニングパラメータを持つモデルを用いて、基礎となる量子分布を学習できるだろうか?
本稿では,Deep Boltzmann Machine (DBM), Generative Adrial Networks (GANs), Long Short-Term Memory (LSTM), Autoregressive GANの4種類の生成モデルについて,深部ランダム回路で生成された量子データセットの学習について検討する。
- 参考スコア(独自算出の注目度): 26.425493366198207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a quantum circuit, a quantum computer can sample the output
distribution exponentially faster in the number of bits than classical
computers. A similar exponential separation has yet to be established in
generative models through quantum sample learning: given samples from an
n-qubit computation, can we learn the underlying quantum distribution using
models with training parameters that scale polynomial in n under a fixed
training time? We study four kinds of generative models: Deep Boltzmann machine
(DBM), Generative Adversarial Networks (GANs), Long Short-Term Memory (LSTM)
and Autoregressive GAN, on learning quantum data set generated by deep random
circuits. We demonstrate the leading performance of LSTM in learning quantum
samples, and thus the autoregressive structure present in the underlying
quantum distribution from random quantum circuits. Both numerical experiments
and a theoretical proof in the case of the DBM show exponentially growing
complexity of learning-agent parameters required for achieving a fixed accuracy
as n increases. Finally, we establish a connection between learnability and the
complexity of generative models by benchmarking learnability against different
sets of samples drawn from probability distributions of variable degrees of
complexities in their quantum and classical representations.
- Abstract(参考訳): 量子回路が与えられた場合、量子コンピュータは古典的コンピュータよりも指数関数的に早く出力分布をサンプリングすることができる。
量子サンプル学習を通じて生成モデルに同様の指数的分離がまだ確立されていない: n-qubit 計算のサンプルが与えられたら、n の多項式を一定トレーニング時間でスケールする訓練パラメータを持つモデルを用いて、基礎となる量子分布を学習できるだろうか?
本稿では,Deep Boltzmann Machine (DBM), Generative Adversarial Networks (GANs), Long Short-Term Memory (LSTM), Autoregressive GANの4種類の生成モデルについて,深部ランダム回路で生成された量子データセットの学習について検討する。
量子サンプルの学習におけるLSTMの先行性能を実証し、ランダムな量子回路の量子分布の根底に存在する自己回帰構造を示す。
数値実験とDBMの場合の理論的証明は、nが増加するにつれて一定の精度を達成するために必要な学習エージェントパラメータの指数関数的に増加する複雑性を示す。
最後に、量子的および古典的表現における複素量の確率分布から得られた異なるサンプル集合に対して学習可能性と生成モデルの複雑さの関連性を確立する。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - TeD-Q: a tensor network enhanced distributed hybrid quantum machine
learning framework [59.07246314484875]
TeD-Qは、量子機械学習のためのオープンソースのソフトウェアフレームワークである。
古典的な機械学習ライブラリと量子シミュレータをシームレスに統合する。
量子回路とトレーニングの進捗をリアルタイムで視覚化できるグラフィカルモードを提供する。
論文 参考訳(メタデータ) (2023-01-13T09:35:05Z) - Importance sampling for stochastic quantum simulations [68.8204255655161]
我々は、係数に応じてハミルトン式からサンプリングしてランダムな積公式を構築するqDriftプロトコルを導入する。
サンプリング段階における個別のシミュレーションコストを考慮し、同じ精度でシミュレーションコストを削減可能であることを示す。
格子核効果場理論を用いて数値シミュレーションを行った結果, 実験結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T15:06:32Z) - Copula-based Risk Aggregation with Trapped Ion Quantum Computers [1.541403735141431]
コプラは、合同確率分布をモデル化するための数学的ツールである。
コプラを最大絡み合った量子状態として表現できることの最近の発見は、実用的な量子優位性に対する有望なアプローチを明らかにしている。
シミュレータと最先端のイオン量子コンピュータ上での回路設計と精度の異なるQCBMのトレーニングについて検討する。
論文 参考訳(メタデータ) (2022-06-23T18:39:30Z) - On Quantum Circuits for Discrete Graphical Models [1.0965065178451106]
一般的な離散因子モデルから、偏りのない、独立なサンプルを確実に生成できる最初の方法を提案する。
本手法は多体相互作用と互換性があり,その成功確率は変数数に依存しない。
量子シミュレーションおよび実際の量子ハードウェアを用いた実験は,本手法が量子コンピュータ上でサンプリングおよびパラメータ学習を行うことができることを示す。
論文 参考訳(メタデータ) (2022-06-01T11:03:51Z) - Protocols for Trainable and Differentiable Quantum Generative Modelling [21.24186888129542]
微分可能量子回路(DQC)としての確率分布の学習手法を提案する。
我々はDQCベースのモデルのトレーニングを行い、そこでデータは位相特徴写像で潜在空間にエンコードされ、次に変動量子回路が続く。
これにより、シングルショットの読み出しを使ってパラメタライズドディストリビューションからの高速サンプリングが可能になる。
論文 参考訳(メタデータ) (2022-02-16T18:55:48Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Learnability of the output distributions of local quantum circuits [53.17490581210575]
2つの異なるオラクルモデルにおいて、量子回路Bornマシンの学習可能性について検討する。
我々はまず,超対数深度クリフォード回路の出力分布がサンプル効率良く学習できないという負の結果を示した。
より強力なオラクルモデル、すなわちサンプルに直接アクセスすると、局所的なクリフォード回路の出力分布は計算効率よくPACを学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-11T18:00:20Z) - Tensor Network Quantum Virtual Machine for Simulating Quantum Circuits
at Exascale [57.84751206630535]
本稿では,E-scale ACCelerator(XACC)フレームワークにおける量子回路シミュレーションバックエンドとして機能する量子仮想マシン(TNQVM)の近代化版を提案する。
新バージョンは汎用的でスケーラブルなネットワーク処理ライブラリであるExaTNをベースにしており、複数の量子回路シミュレータを提供している。
ポータブルなXACC量子プロセッサとスケーラブルなExaTNバックエンドを組み合わせることで、ラップトップから将来のエクサスケールプラットフォームにスケール可能なエンドツーエンドの仮想開発環境を導入します。
論文 参考訳(メタデータ) (2021-04-21T13:26:42Z) - Noise robustness and experimental demonstration of a quantum generative
adversarial network for continuous distributions [0.5249805590164901]
連続確率分布を学習するために、ノイズの多いハイブリッド量子生成逆数ネットワーク(HQGAN)を数値シミュレーションする。
また,アルゴリズムの計算スケーリングを削減するために,異なるパラメータがトレーニング時間に与える影響についても検討する。
我々の研究結果は、ノイズの多い中間量子デバイス上で異なる量子機械学習アルゴリズムを実験的に探索するための道を開いた。
論文 参考訳(メタデータ) (2020-06-02T23:14:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。