論文の概要: Do Quantum Circuit Born Machines Generalize?
- arxiv url: http://arxiv.org/abs/2207.13645v1
- Date: Wed, 27 Jul 2022 17:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 14:10:28.113228
- Title: Do Quantum Circuit Born Machines Generalize?
- Title(参考訳): 量子回路は一般化されるか?
- Authors: Kaitlin Gili, Mohamed Hibat-Allah, Marta Mauri, Chris Ballance,
Alejandro Perdomo-Ortiz
- Abstract要約: 本稿では,QCBM(Quantum Circuit Born Machines)がトレーニングセットよりも高品質な未確認サンプルを生成可能であることを示す。
量子生成モデルの積分評価指標として、QCBMの一般化性能を示す文献としては、これが初めてである。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent proposals of quantum circuit models for generative tasks, the
discussion about their performance has been limited to their ability to
reproduce a known target distribution. For example, expressive model families
such as Quantum Circuit Born Machines (QCBMs) have been almost entirely
evaluated on their capability to learn a given target distribution with high
accuracy. While this aspect may be ideal for some tasks, it limits the scope of
a generative model's assessment to its ability to memorize data rather than
generalize. As a result, there has been little understanding of a model's
generalization performance and the relation between such capability and the
resource requirements, e.g., the circuit depth and the amount of training data.
In this work, we leverage upon a recently proposed generalization evaluation
framework to begin addressing this knowledge gap. We first investigate the
QCBM's learning process of a cardinality-constrained distribution and see an
increase in generalization performance while increasing the circuit depth. In
the 12-qubit example presented here, we observe that with as few as 30% of the
valid patterns as the training set, the QCBM exhibits the best generalization
performance toward generating unseen and valid patterns. Lastly, we assess the
QCBM's ability to generalize not only to valid features, but to high-quality
bitstrings distributed according to an adequately biased distribution. We see
that the QCBM is able to effectively learn the bias and generate unseen samples
with higher quality than those in the training set. To the best of our
knowledge, this is the first work in the literature that presents the QCBM's
generalization performance as an integral evaluation metric for quantum
generative models, and demonstrates the QCBM's ability to generalize to
high-quality, desired novel samples.
- Abstract(参考訳): 近年、生成タスクのための量子回路モデルの提案において、それらの性能に関する議論は、既知のターゲット分布を再現する能力に限られている。
例えば、QCBM(Quantum Circuit Born Machines)のような表現型モデルファミリは、与えられたターゲット分布を高精度に学習する能力について、ほぼ完全に評価されている。
この側面はいくつかのタスクには理想的かもしれないが、ジェネレーティブモデルの評価の範囲を一般化するよりもデータを記憶する能力に制限する。
その結果、モデルの一般化性能とそのような能力とリソース要件との関係、例えば回路深さとトレーニングデータの量についてはほとんど理解されていない。
本研究では,最近提案された一般化評価フレームワークを活用し,この知識ギャップに対処する。
まず,QCBMの濃度制約分布の学習過程を調査し,回路深度を増大させながら一般化性能が向上することを示した。
ここで示した12量子ビットの例では、有効パターンの30%をトレーニングセットとして、qcbmは、目に見えない有効パターンを生成するための最良の一般化性能を示す。
最後に,QCBMが有意な特徴だけでなく,適切なバイアス分布に応じて分布する高品質なビットストリングにも応用できることを示す。
QCBMは、このバイアスを効果的に学習し、トレーニングセットよりも高品質の未確認サンプルを生成することができる。
我々の知る限り、これはQCBMの一般化性能を量子生成モデルの積分評価指標として示し、QCBMが高品質で望まれる新しいサンプルに一般化する能力を示す文献の中では初めてのものである。
関連論文リスト
- Quantum Generative Modeling of Sequential Data with Trainable Token
Embedding [0.0]
ボルンマシンとして知られる量子インスパイアされた生成モデルは、古典的および量子的データの学習において大きな進歩を見せている。
本稿では,MPSを同時に使用可能なトレーニング可能な量子計測演算子への埋め込み法を一般化する。
私たちの研究は、トレーニング可能な埋め込みと組み合わせることで、Bornマシンはより良いパフォーマンスを示し、データセットからより深い相関関係を学習できることを示した。
論文 参考訳(メタデータ) (2023-11-08T22:56:37Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Reassessing Evaluation Practices in Visual Question Answering: A Case
Study on Out-of-Distribution Generalization [27.437077941786768]
大規模マルチモーダルデータ上で事前訓練された視覚・言語モデル(V&L)は,様々なタスクにおいて高い性能を示す。
異なる条件下で事前学習した2つのV&Lモデルを評価する。
これらのモデルは、VQAタスクに必要な高度なスキルを学ぶよりも、ベンチマークを解くことを学ぶ傾向にある。
論文 参考訳(メタデータ) (2022-05-24T16:44:45Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Out-of-distribution generalization for learning quantum dynamics [2.1503874224655997]
積状態のみを訓練した絡み合った状態に対するユニタリの作用を学習できることが示される。
これは、短期量子ハードウェア上で量子力学を学ぶことの展望を前進させる。
論文 参考訳(メタデータ) (2022-04-21T17:15:23Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。