論文の概要: Evaluating Generalization in Classical and Quantum Generative Models
- arxiv url: http://arxiv.org/abs/2201.08770v1
- Date: Fri, 21 Jan 2022 16:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 16:08:02.729434
- Title: Evaluating Generalization in Classical and Quantum Generative Models
- Title(参考訳): 古典および量子生成モデルの一般化の評価
- Authors: Kaitlin Gili, Marta Mauri, Alejandro Perdomo-Ortiz
- Abstract要約: 我々は、生成モデルの一般化能力を評価するための単純で曖昧なアプローチを構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Defining and accurately measuring generalization in generative models remains
an ongoing challenge and a topic of active research within the machine learning
community. This is in contrast to discriminative models, where there is a clear
definition of generalization, i.e., the model's classification accuracy when
faced with unseen data. In this work, we construct a simple and unambiguous
approach to evaluate the generalization capabilities of generative models.
Using the sample-based generalization metrics proposed here, any generative
model, from state-of-the-art classical generative models such as GANs to
quantum models such as Quantum Circuit Born Machines, can be evaluated on the
same ground on a concrete well-defined framework. In contrast to other
sample-based metrics for probing generalization, we leverage constrained
optimization problems (e.g., cardinality constrained problems) and use these
discrete datasets to define specific metrics capable of unambiguously measuring
the quality of the samples and the model's generalization capabilities for
generating data beyond the training set but still within the valid solution
space. Additionally, our metrics can diagnose trainability issues such as mode
collapse and overfitting, as we illustrate when comparing GANs to
quantum-inspired models built out of tensor networks. Our simulation results
show that our quantum-inspired models have up to a $68 \times$ enhancement in
generating unseen unique and valid samples compared to GANs, and a ratio of
61:2 for generating samples with better quality than those observed in the
training set. We foresee these metrics as valuable tools for rigorously
defining practical quantum advantage in the domain of generative modeling.
- Abstract(参考訳): 生成モデルにおける一般化の定義と正確な測定は、機械学習コミュニティにおける活発な研究の課題であり続けている。
これは、一般化の明確な定義、すなわち、知覚されていないデータと向き合うときのモデルの分類精度がある差別モデルとは対照的である。
本研究では、生成モデルの一般化能力を評価するための単純で曖昧なアプローチを構築する。
ここで提案されたサンプルベース一般化指標を用いて、GANのような最先端の古典的生成モデルから量子回路ボルンマシンのような量子モデルまで、任意の生成モデルが、具体的な明確に定義されたフレームワーク上で同じ理由で評価できる。
一般化を探索する他のサンプルベースメトリクスとは対照的に、制約付き最適化問題(例えば、濃度制約付き問題)を利用し、これらの離散データセットを使用して、サンプルの品質を明白に測定できる特定のメトリクスと、トレーニングセットを超えたデータを生成するモデルの一般化能力を定義する。
さらに、我々のメトリクスは、テンソルネットワークで構築された量子インスパイアされたモデルとGANを比較したときに示すように、モード崩壊やオーバーフィッティングといったトレーニング可能性の問題を診断することができる。
シミュレーション結果から,我々の量子インスパイアされたモデルでは,gansと比較して,識別不能で有効なサンプルを生成する場合,最大68 \times$向上し,トレーニングセットで観察されたものよりも品質の良いサンプルを生成する場合,61:2の比率を示した。
生成モデリングの領域における実用的な量子優位性を厳格に定義するための貴重なツールとして,これらの指標を予想する。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Bayesian Modelling Approaches for Quantum States -- The Ultimate
Gaussian Process States Handbook [0.0]
この論文では、量子多体波動関数の(古典的な)モデリングのための新しいツールとテクニックについて論じる。
一般的な機械学習アプローチとの相乗効果を利用して、最も関連する固有の特徴の自動推論を実現する方法について概説する。
結果として得られるモデルは高い解釈可能性を持ち、量子システムの研究に容易に適用可能なツールを提供する。
論文 参考訳(メタデータ) (2023-08-15T09:37:58Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Generative model for learning quantum ensemble via optimal transport
loss [0.9404723842159504]
量子アンサンブルを学習できる量子生成モデルを提案する。
提案したモデルは、量子デバイスのヘルスチェックのような幅広い応用の道を開く。
論文 参考訳(メタデータ) (2022-10-19T17:35:38Z) - Provably efficient variational generative modeling of quantum many-body
systems via quantum-probabilistic information geometry [3.5097082077065003]
パラメータ化混合状態に対する量子自然勾配降下の一般化を導入する。
また、堅牢な一階近似アルゴリズム、Quantum-Probabilistic Mirror Descentを提供する。
我々のアプローチは、モデル選択における柔軟性を実現するために、それまでのサンプル効率の手法を拡張しました。
論文 参考訳(メタデータ) (2022-06-09T17:58:15Z) - On Quantum Circuits for Discrete Graphical Models [1.0965065178451106]
一般的な離散因子モデルから、偏りのない、独立なサンプルを確実に生成できる最初の方法を提案する。
本手法は多体相互作用と互換性があり,その成功確率は変数数に依存しない。
量子シミュレーションおよび実際の量子ハードウェアを用いた実験は,本手法が量子コンピュータ上でサンプリングおよびパラメータ学習を行うことができることを示す。
論文 参考訳(メタデータ) (2022-06-01T11:03:51Z) - Quantum Machine Learning with SQUID [64.53556573827525]
分類問題に対するハイブリッド量子古典アルゴリズムを探索するオープンソースフレームワークであるScaled QUantum IDentifier (SQUID)を提案する。
本稿では、一般的なMNISTデータセットから標準バイナリ分類問題にSQUIDを使用する例を示す。
論文 参考訳(メタデータ) (2021-04-30T21:34:11Z) - Error mitigation and quantum-assisted simulation in the error corrected
regime [77.34726150561087]
量子コンピューティングの標準的なアプローチは、古典的にシミュレート可能なフォールトトレラントな演算セットを促進するという考え方に基づいている。
量子回路の古典的準確率シミュレーションをどのように促進するかを示す。
論文 参考訳(メタデータ) (2021-03-12T20:58:41Z) - Enhancing Generative Models via Quantum Correlations [1.6099403809839032]
確率分布から抽出したサンプルを用いた生成モデリングは教師なし機械学習の強力なアプローチである。
このような量子相関が生成モデリングの強力な資源となることを理論的に示す。
この分離を標準的な機械学習データセットで数値的にテストし、実用的な問題に耐えることを示します。
論文 参考訳(メタデータ) (2021-01-20T22:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。