論文の概要: Trainability barriers and opportunities in quantum generative modeling
- arxiv url: http://arxiv.org/abs/2305.02881v1
- Date: Thu, 4 May 2023 14:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:14:59.902306
- Title: Trainability barriers and opportunities in quantum generative modeling
- Title(参考訳): 量子生成モデリングにおけるトレーサビリティ障壁と機会
- Authors: Manuel S. Rudolph, Sacha Lerch, Supanut Thanasilp, Oriel Kiss, Sofia
Vallecorsa, Michele Grossi, Zo\"e Holmes
- Abstract要約: 量子生成モデルのトレーニング可能性に対する障壁について検討する。
明示的な損失を伴う暗黙的な生成モデルを使用することで,バレン高原の新たな風味がもたらされることを示す。
本稿では,量子回路を活用することで,忠実かつトレーニング可能性の保証を享受できる新しい局所量子忠実度型損失を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum generative models, in providing inherently efficient sampling
strategies, show promise for achieving a near-term advantage on quantum
hardware. Nonetheless, important questions remain regarding their scalability.
In this work, we investigate the barriers to the trainability of quantum
generative models posed by barren plateaus and exponential loss concentration.
We explore the interplay between explicit and implicit models and losses, and
show that using implicit generative models (such as quantum circuit-based
models) with explicit losses (such as the KL divergence) leads to a new flavour
of barren plateau. In contrast, the Maximum Mean Discrepancy (MMD), which is a
popular example of an implicit loss, can be viewed as the expectation value of
an observable that is either low-bodied and trainable, or global and
untrainable depending on the choice of kernel. However, in parallel, we
highlight that the low-bodied losses required for trainability cannot in
general distinguish high-order correlations, leading to a fundamental tension
between exponential concentration and the emergence of spurious minima. We
further propose a new local quantum fidelity-type loss which, by leveraging
quantum circuits to estimate the quality of the encoded distribution, is both
faithful and enjoys trainability guarantees. Finally, we compare the
performance of different loss functions for modelling real-world data from the
High-Energy-Physics domain and confirm the trends predicted by our theoretical
results.
- Abstract(参考訳): 量子生成モデル 本質的に効率的なサンプリング戦略を提供する中で、量子ハードウェアにおける短期的優位性を達成することが期待できる。
それでも、スケーラビリティに関する重要な疑問は残る。
本研究では,不規則高原と指数的損失集中によって生じる量子生成モデルのトレーサビリティに対する障壁について検討する。
明示的なモデルと暗黙的なモデルと損失の相互作用を考察し、暗黙的な生成モデル(量子回路に基づくモデルなど)と明示的な損失(klの分岐など)を用いることで、バレン高原の新しい風味がもたらされることを示した。
対照的に、暗黙の損失の一般的な例である最大平均離散性(MMD)は、低ボディーで訓練可能で、カーネルの選択によってグローバルで訓練不能な観測可能物の期待値とみなすことができる。
しかし、並行して、訓練能力に必要な低次元の損失は一般に高次相関を区別できず、指数集中とスプリアスミニマの出現の間に根本的な緊張が生じることを強調する。
さらに、量子回路を利用して符号化された分布の質を推定することにより、忠実かつトレーニング可能性を保証する新しい局所量子忠実度型損失を提案する。
最後に,高エネルギー物理学領域からの実世界のデータをモデル化するための損失関数の性能を比較し,理論結果から予測される傾向を確認した。
関連論文リスト
- Estimates of loss function concentration in noisy parametrized quantum circuits [0.0]
本稿では,深部量子回路における分散の正確な計算を可能にする新しい解析式を提案する。
単元量子コンピューティングの純粋可逆的文脈では生じない現象であるノイズ誘起吸収機構の出現を示す。
我々は,PQCの耐雑音性と,その表現力を高める可能性との間に深い関係を築けるように,一元的および非単元的力学の両方に適用する。
論文 参考訳(メタデータ) (2024-10-02T18:00:09Z) - Unveiling the nonclassicality within quasi-distribution representations through deep learning [1.130790932059036]
広く採用されているアプローチは、非古典性の説得力のある証拠として準分布表現の負の値に焦点を当てている。
本稿では, 深層生成モデルを用いて3つの辺縁処理を行い, 連成準分布関数を構成する計算手法を提案する。
また、量子状態のウィグナー関数を構築するための実験的な取り組みを大幅に削減する。
論文 参考訳(メタデータ) (2023-12-26T13:56:07Z) - Gradients and frequency profiles of quantum re-uploading models [0.0]
我々は、よりよく研究されたデータレスパラメータ化量子回路の勾配と再アップロードモデルとの差の有界性を証明した。
表現性については、量子再ロードモデルが高周波数成分とデータに対する上界微分を消滅させる関数を出力していることが証明される。
論文 参考訳(メタデータ) (2023-11-17T19:01:43Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Expressibility-induced Concentration of Quantum Neural Tangent Kernels [4.561685127984694]
量子タンジェントカーネルモデルのトレーニング可能性と表現性の関係について検討する。
大域的損失関数に対して、大域的および局所的な量子符号化の両方の高表現性は、量子接核値の指数集中を0に導くことを厳密に証明する。
我々の発見は量子ニューラル・タンジェント・カーネルの重要な特徴を明らかにし、広い量子変動回路モデルの設計に有用な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-08T19:00:01Z) - Tight and Efficient Gradient Bounds for Parameterized Quantum Circuits [7.0379869298557844]
パラメータ化モデルのトレーニングは、下層の損失関数のランドスケープに大きく依存する。
これらの境界は, 損失そのものの分散とともに, VQAモデルの損失景観を研究するために, 効率よく, 古典的に逆向きに推定できることが示される。
この洞察は、局所的およびグローバル的用語からなる観測可能なVQAとして再構成できる生成モデルであるハイブリッド量子生成広告ネットワーク(qGANs)に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-09-22T07:38:13Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - ClusterQ: Semantic Feature Distribution Alignment for Data-Free
Quantization [111.12063632743013]
本稿では,ClusterQと呼ばれるデータフリーな量子化手法を提案する。
意味的特徴のクラス間分離性を高めるために,特徴分布統計をクラスタ化し,整列する。
また、クラス内分散を組み込んで、クラスワイドモードの崩壊を解決する。
論文 参考訳(メタデータ) (2022-04-30T06:58:56Z) - Divergence Frontiers for Generative Models: Sample Complexity,
Quantization Level, and Frontier Integral [58.434753643798224]
多様性フロンティアは生成モデルの評価フレームワークとして提案されている。
分岐フロンティアのプラグイン推定器のサンプル複雑性の非漸近的境界を確立する。
また,スムーズな分布推定器の統計的性能を調べることにより,分散フロンティアの枠組みも強化する。
論文 参考訳(メタデータ) (2021-06-15T06:26:25Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。