論文の概要: A performance characterization of quantum generative models
- arxiv url: http://arxiv.org/abs/2301.09363v1
- Date: Mon, 23 Jan 2023 11:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 13:43:26.857069
- Title: A performance characterization of quantum generative models
- Title(参考訳): 量子生成モデルの性能評価
- Authors: Carlos A. Riofr\'io, Oliver Mitevski, Caitlin Jones, Florian Krellner,
Aleksandar Vu\v{c}kovi\'c, Joseph Doetsch, Johannes Klepsch, Thomas Ehmer,
and Andre Luckow
- Abstract要約: 我々は、量子生成モデリングに使用される量子回路の異なるアーキテクチャアンサーゼを比較した。
2つの一般的なトレーニング手法を用いてデータセットの確率分布を学習する。
確率分布のコプラを学習するEmphdiscreteアーキテクチャの変種が,他の手法よりも優れていることを実証的に見出した。
- 参考スコア(独自算出の注目度): 47.187609203210705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum generative modeling is a growing area of interest for
industry-relevant applications. With the field still in its infancy, there are
many competing techniques. This work is an attempt to systematically compare a
broad range of these techniques to guide quantum computing practitioners when
deciding which models and techniques to use in their applications. We compare
fundamentally different architectural ansatzes of parametric quantum circuits
used for quantum generative modeling: 1. A \emph{continuous} architecture,
which produces continuous-valued data samples, and 2. a \emph{discrete}
architecture, which samples on a discrete grid. We compare the performance of
different data transformations: normalization by the min-max transform or by
the probability integral transform. We learn the underlying probability
distribution of the data sets via two popular training methods: 1. quantum
circuit Born machines (QCBM), and 2. quantum generative adversarial networks
(QGAN). We study their performance and trade-offs as the number of model
parameters increases, with the baseline of similarly trained classical neural
networks. The study is performed on six low-dimensional synthetic and two real
financial data sets. Our two key findings are that: 1. For all data sets, our
quantum models require similar or fewer parameters than their classical
counterparts. In the extreme case, the quantum models require two of orders of
magnitude less parameters. 2. We empirically find that a variant of the
\emph{discrete} architecture, which learns the copula of the probability
distribution, outperforms all other methods.
- Abstract(参考訳): 量子生成モデリングは、産業関連アプリケーションへの関心が高まっている。
この分野はまだ初期段階にあり、多くの競合する技術がある。
この研究は、量子コンピューティングの実践者がどのモデルやテクニックをアプリケーションで使うかを決める際に、幅広い手法を体系的に比較する試みである。
量子生成モデリングに使用されるパラメトリック量子回路のアーキテクチャ上の要点を比較する。
1. 連続値のデータサンプルを生成する 'emph{continuous} アーキテクチャ、および
2. 離散グリッド上でサンプルを行う \emph{discrete} アーキテクチャ。
異なるデータ変換の性能を比較する: min-max変換による正規化や確率積分変換。
2つの一般的なトレーニング手法により、データセットの基盤となる確率分布を学習する。
1.量子回路ボルンマシン(QCBM)、及び
2.量子生成敵ネットワーク(QGAN)
モデルパラメータの数が増えるにつれて、同様の訓練を受けた古典的ニューラルネットワークのベースラインとともに、それらのパフォーマンスとトレードオフを調査した。
この研究は6つの低次元合成と2つの実財務データに対して行われた。
私たちの2つの重要な発見は
1.すべてのデータセットに対して、我々の量子モデルは、古典的パラメータよりも類似または少ないパラメータを必要とする。
極端な場合、量子モデルは桁違いのパラメータを2つ必要とします。
2) 確率分布のコプラを学習する「emph{discrete} アーキテクチャ」の変種が他の手法よりも優れていることを実証的に見出した。
関連論文リスト
- Are Quantum Circuits Better than Neural Networks at Learning
Multi-dimensional Discrete Data? An Investigation into Practical Quantum
Circuit Generative Models [0.0]
多層パラメタライズド量子回路(MPQC)は古典的ニューラルネットワーク(NN)よりも表現力が高いことを示す。
我々は、MPQCが古典的に効率的にシミュレートできない確率分布を生成できる理由の体系的な証明に、利用可能な情報源を整理する。
量子回路を限られたサンプルで効率的にトレーニングする方法、勾配(量子)を効率的に計算する方法、モーダル崩壊を緩和する方法など、実用的な問題に対処する。
論文 参考訳(メタデータ) (2022-12-13T05:31:31Z) - Photonic Quantum Computing For Polymer Classification [62.997667081978825]
2つのポリマークラス (VIS) と近赤外 (NIR) は, ポリマーギャップの大きさに基づいて定義される。
高分子構造の二項分類に対する古典量子ハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2022-11-22T11:59:52Z) - Structure Learning of Quantum Embeddings [68.8204255655161]
最適化手法により最適な量子埋め込みを自動的に選択するアルゴリズムを提案する。
我々は、我々のアプローチの性能向上を示すために、人工データセットと実世界のデータセットの両方を使用しました。
論文 参考訳(メタデータ) (2022-09-22T16:42:14Z) - Provably efficient variational generative modeling of quantum many-body
systems via quantum-probabilistic information geometry [3.5097082077065003]
パラメータ化混合状態に対する量子自然勾配降下の一般化を導入する。
また、堅牢な一階近似アルゴリズム、Quantum-Probabilistic Mirror Descentを提供する。
我々のアプローチは、モデル選択における柔軟性を実現するために、それまでのサンプル効率の手法を拡張しました。
論文 参考訳(メタデータ) (2022-06-09T17:58:15Z) - On Quantum Circuits for Discrete Graphical Models [1.0965065178451106]
一般的な離散因子モデルから、偏りのない、独立なサンプルを確実に生成できる最初の方法を提案する。
本手法は多体相互作用と互換性があり,その成功確率は変数数に依存しない。
量子シミュレーションおよび実際の量子ハードウェアを用いた実験は,本手法が量子コンピュータ上でサンプリングおよびパラメータ学習を行うことができることを示す。
論文 参考訳(メタデータ) (2022-06-01T11:03:51Z) - Multiclass classification using quantum convolutional neural networks
with hybrid quantum-classical learning [0.5999777817331318]
本稿では,量子畳み込みニューラルネットワークに基づく量子機械学習手法を提案する。
提案手法を用いて,MNISTデータセットの4クラス分類を,データエンコーディングの8つのキュービットと4つのアクニラキュービットを用いて実証する。
この結果から,学習可能なパラメータの数に匹敵する古典的畳み込みニューラルネットワークによる解の精度が示された。
論文 参考訳(メタデータ) (2022-03-29T09:07:18Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Decompositional Quantum Graph Neural Network [64.88906673698436]
本稿では,DQGNN(Decompositional Quantum Graph Neural Network)と呼ばれるグラフ構造化データに対する新しいハイブリッド量子古典アルゴリズムを提案する。
DQGNNはテンソル積とユニタリ行列表現を用いてGNN理論フレームワークを実装し、モデルパラメータの数を大幅に削減する。
このアーキテクチャは、現実世界のデータからヒルベルト空間への新しいマッピングに基づいている。
論文 参考訳(メタデータ) (2022-01-13T16:35:45Z) - Learnability of the output distributions of local quantum circuits [53.17490581210575]
2つの異なるオラクルモデルにおいて、量子回路Bornマシンの学習可能性について検討する。
我々はまず,超対数深度クリフォード回路の出力分布がサンプル効率良く学習できないという負の結果を示した。
より強力なオラクルモデル、すなわちサンプルに直接アクセスすると、局所的なクリフォード回路の出力分布は計算効率よくPACを学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-11T18:00:20Z) - Learnability and Complexity of Quantum Samples [26.425493366198207]
量子回路が与えられた場合、量子コンピュータは古典的コンピュータよりも出力分布を指数関数的に高速にサンプリングすることができる。
一定のトレーニング時間でnでスケールするトレーニングパラメータを持つモデルを用いて、基礎となる量子分布を学習できるだろうか?
本稿では,Deep Boltzmann Machine (DBM), Generative Adrial Networks (GANs), Long Short-Term Memory (LSTM), Autoregressive GANの4種類の生成モデルについて,深部ランダム回路で生成された量子データセットの学習について検討する。
論文 参考訳(メタデータ) (2020-10-22T18:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。