論文の概要: Computing Marginal and Conditional Divergences between Decomposable
Models with Applications
- arxiv url: http://arxiv.org/abs/2310.09129v1
- Date: Fri, 13 Oct 2023 14:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 12:51:11.680437
- Title: Computing Marginal and Conditional Divergences between Decomposable
Models with Applications
- Title(参考訳): 分解可能なモデルと応用との相関と条件分岐の計算
- Authors: Loong Kuan Lee, Geoffrey I. Webb, Daniel F. Schmidt, Nico Piatkowski
- Abstract要約: 本稿では,2つの分解可能なモデルの任意の限界分布と条件分布の正確なα-ベータの偏差を計算する手法を提案する。
提案手法を用いて,まずベンチマーク画像データセットに適用することにより,分布変化を解析する方法を示す。
本稿では,現代の超伝導量子コンピュータにおける誤差の定量化手法を提案する。
- 参考スコア(独自算出の注目度): 7.89568731669979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to compute the exact divergence between two high-dimensional
distributions is useful in many applications but doing so naively is
intractable. Computing the alpha-beta divergence -- a family of divergences
that includes the Kullback-Leibler divergence and Hellinger distance -- between
the joint distribution of two decomposable models, i.e chordal Markov networks,
can be done in time exponential in the treewidth of these models. However,
reducing the dissimilarity between two high-dimensional objects to a single
scalar value can be uninformative. Furthermore, in applications such as
supervised learning, the divergence over a conditional distribution might be of
more interest. Therefore, we propose an approach to compute the exact
alpha-beta divergence between any marginal or conditional distribution of two
decomposable models. Doing so tractably is non-trivial as we need to decompose
the divergence between these distributions and therefore, require a
decomposition over the marginal and conditional distributions of these models.
Consequently, we provide such a decomposition and also extend existing work to
compute the marginal and conditional alpha-beta divergence between these
decompositions. We then show how our method can be used to analyze
distributional changes by first applying it to a benchmark image dataset.
Finally, based on our framework, we propose a novel way to quantify the error
in contemporary superconducting quantum computers. Code for all experiments is
available at: https://lklee.dev/pub/2023-icdm/code
- Abstract(参考訳): 2つの高次元分布の正確な分岐を計算する能力は、多くのアプリケーションで有用であるが、それを行うのは難解である。
Kullback-Leibler の発散と Hellinger 距離を含む分岐の族である α-β の発散を計算し、2つの分解可能なモデルの結合分布、すなわち、コードマルコフネットワークは、これらのモデルのツリー幅で指数関数的に時間的に行うことができる。
しかし、2つの高次元オブジェクト間の相似性を1つのスカラー値に減らすことは不可能である。
さらに、教師付き学習のようなアプリケーションでは、条件付き分布上の発散がより興味深いかもしれない。
そこで本研究では,2つの分解可能モデルの限界分布と条件分布の正確なα-ベータ発散を計算する手法を提案する。
このような厳密な処理は、これらの分布間の分散を分解する必要があるため、これらのモデルの限界分布と条件分布を分解する必要がある。
その結果、我々はそのような分解を提供し、既存の処理を拡張して、これらの分解間の限界と条件のアルファ-ベータのばらつきを計算する。
次に,まずそれをベンチマーク画像データセットに適用することにより,分布変化の解析に用いる方法を示す。
最後に, 現代の超伝導量子コンピュータにおいて, 誤差を定量化する新しい手法を提案する。
すべての実験のコードは、https://lklee.dev/pub/2023-icdm/codeで利用可能である。
関連論文リスト
- Non-asymptotic Convergence of Discrete-time Diffusion Models: New Approach and Improved Rate [49.97755400231656]
我々はDT拡散過程下での分布のかなり大きなクラスに対する収束保証を確立する。
次に、明示的なパラメータ依存を持つ分布の多くの興味深いクラスに結果を専門化します。
そこで本研究では,新しい加速型サンプリング器を提案し,対応する正則サンプリング器の収束率を,全てのシステムパラメータに対して桁違いに向上することを示す。
論文 参考訳(メタデータ) (2024-02-21T16:11:47Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - The Representation Jensen-Shannon Divergence [0.0]
統計分岐は確率分布の違いを定量化する。
本研究では,確率密度関数の推定を回避したJensen-Shannon発散にインスパイアされた発散を提案する。
論文 参考訳(メタデータ) (2023-05-25T19:44:36Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Matching Normalizing Flows and Probability Paths on Manifolds [57.95251557443005]
連続正規化フロー (Continuous Normalizing Flows, CNFs) は、常微分方程式(ODE)を解くことによって、先行分布をモデル分布に変換する生成モデルである。
我々は,CNFが生成する確率密度パスと目標確率密度パスとの間に生じる新たな分岐系であるPPDを最小化して,CNFを訓練することを提案する。
PPDの最小化によって得られたCNFは、既存の低次元多様体のベンチマークにおいて、その可能性とサンプル品質が得られることを示す。
論文 参考訳(メタデータ) (2022-07-11T08:50:19Z) - GANs as Gradient Flows that Converge [3.8707695363745223]
分布依存常微分方程式によって誘導される勾配流に沿って、未知のデータ分布が長時間の極限として現れることを示す。
ODEのシミュレーションは、生成ネットワーク(GAN)のトレーニングと等価である。
この等価性は、GANの新たな「協力的」見解を提供し、さらに重要なのは、GANの多様化に新たな光を放つことである。
論文 参考訳(メタデータ) (2022-05-05T20:29:13Z) - Flexible Amortized Variational Inference in qBOLD MRI [56.4324135502282]
データから酸素抽出率(OEF)と脱酸素血液量(DBV)をより明瞭に決定する。
既存の推論手法では、DBVを過大評価しながら非常にノイズの多い、過小評価されたEFマップが得られる傾向にある。
本研究は, OEFとDBVの可算分布を推定できる確率論的機械学習手法について述べる。
論文 参考訳(メタデータ) (2022-03-11T10:47:16Z) - Resampling Base Distributions of Normalizing Flows [0.0]
学習された拒絶サンプリングに基づいて,フローを正規化するためのベース分布を導入する。
ログライクリフの最大化と逆Kulback-Leibler分散の最適化の両方を用いて、適切な学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-10-29T14:44:44Z) - Deep Generative Learning via Schr\"{o}dinger Bridge [14.138796631423954]
エントロピーにより生成モデルをSchr"odinger Bridgeで学習する。
Schr"odinger Bridge による生成モデルは最先端の GAN に匹敵することを示す。
論文 参考訳(メタデータ) (2021-06-19T03:35:42Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Distributional Sliced Embedding Discrepancy for Incomparable
Distributions [22.615156512223766]
Gromov-Wasserstein (GW) 距離は多様体学習とクロスドメイン学習の鍵となるツールである。
本稿では,分散スライシング,埋め込み,スライスされた分布間の閉形式ワッサーシュタイン距離の計算という2つの計算分布を比較する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T15:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。