論文の概要: Distributional Sliced Embedding Discrepancy for Incomparable
Distributions
- arxiv url: http://arxiv.org/abs/2106.02542v1
- Date: Fri, 4 Jun 2021 15:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:19:40.800591
- Title: Distributional Sliced Embedding Discrepancy for Incomparable
Distributions
- Title(参考訳): 不整合分布に対する分布スライスエンベディングの相違
- Authors: Mokhtar Z. Alaya, Gilles Gasso, Maxime Berar, Alain Rakotomamonjy
- Abstract要約: Gromov-Wasserstein (GW) 距離は多様体学習とクロスドメイン学習の鍵となるツールである。
本稿では,分散スライシング,埋め込み,スライスされた分布間の閉形式ワッサーシュタイン距離の計算という2つの計算分布を比較する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 22.615156512223766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gromov-Wasserstein (GW) distance is a key tool for manifold learning and
cross-domain learning, allowing the comparison of distributions that do not
live in the same metric space. Because of its high computational complexity,
several approximate GW distances have been proposed based on entropy
regularization or on slicing, and one-dimensional GW computation. In this
paper, we propose a novel approach for comparing two incomparable
distributions, that hinges on the idea of distributional slicing, embeddings,
and on computing the closed-form Wasserstein distance between the sliced
distributions. We provide a theoretical analysis of this new divergence, called
distributional sliced embedding (DSE) discrepancy, and we show that it
preserves several interesting properties of GW distance including
rotation-invariance. We show that the embeddings involved in DSE can be
efficiently learned. Finally, we provide a large set of experiments
illustrating the behavior of DSE as a divergence in the context of generative
modeling and in query framework.
- Abstract(参考訳): gromov-wasserstein (gw)距離は多様体学習とクロスドメイン学習の重要なツールであり、同じ距離空間に存在しない分布を比較することができる。
計算複雑性が高いため、エントロピー正則化やスライシング、一次元GW計算に基づく近似的なGW距離が提案されている。
本稿では, 分散スライシング, 埋め込み, およびスライスされた分布間の閉形式ワッサーシュタイン距離の計算という2つの非競合分布を比較する新しい手法を提案する。
本稿では, 分散スライス埋め込み (DSE) の相違性に関する理論的解析を行い, 回転不変性を含むGW距離のいくつかの興味深い特性を保っていることを示す。
DSEの埋め込みを効率的に学習できることが示される。
最後に、DSEの振る舞いを、生成モデリングとクエリフレームワークの文脈における相違点として説明する実験の大規模なセットを提供する。
関連論文リスト
- Convergence of Score-Based Discrete Diffusion Models: A Discrete-Time Analysis [56.442307356162864]
連続時間マルコフ連鎖(CTMC)に基づくスコアベース離散拡散モデルの理論的側面について検討する。
本稿では,事前定義された時間点におけるスコア推定値を利用する離散時間サンプリングアルゴリズムを一般状態空間$[S]d$に導入する。
我々の収束解析はジルサノフ法を用いて離散スコア関数の重要な性質を確立する。
論文 参考訳(メタデータ) (2024-10-03T09:07:13Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Computing Marginal and Conditional Divergences between Decomposable
Models with Applications [7.89568731669979]
本稿では,2つの分解可能なモデルの任意の限界分布と条件分布の正確なα-ベータの偏差を計算する手法を提案する。
提案手法を用いて,まずベンチマーク画像データセットに適用することにより,分布変化を解析する方法を示す。
本稿では,現代の超伝導量子コンピュータにおける誤差の定量化手法を提案する。
論文 参考訳(メタデータ) (2023-10-13T14:17:25Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Distributed Variational Inference for Online Supervised Learning [15.038649101409804]
本稿では,スケーラブルな分散確率的推論アルゴリズムを提案する。
センサネットワークにおける連続変数、難解な後部データ、大規模リアルタイムデータに適用できる。
論文 参考訳(メタデータ) (2023-09-05T22:33:02Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Decentralized Entropic Optimal Transport for Distributed Distribution Comparison [28.122302344024387]
本稿では,通信効率とプライバシ保護を両立させる分散型エントロピー最適輸送(DEOT)手法を提案する。
特に,DOT距離を2倍に最適化するミニバッチランダム化ブロック座標降下法を設計する。
提案手法は,エントロピックなGromov-Wasserstein距離にも適用可能であることを示す。
論文 参考訳(メタデータ) (2023-01-28T02:47:42Z) - Cycle Consistent Probability Divergences Across Different Spaces [38.43511529063335]
確率分布の相違は、統計的推測と機械学習の核心にある。
本研究は, 異方性, 異方性, 異方性, 異なる空間上の分布をマッチングするための, アンバランスなモンジュ最適輸送定式化を提案する。
論文 参考訳(メタデータ) (2021-11-22T16:35:58Z) - Kernel distance measures for time series, random fields and other
structured data [71.61147615789537]
kdiffは、構造化データのインスタンス間の距離を推定するためのカーネルベースの新しい尺度である。
これはインスタンス間の自己類似性と交差類似性の両方を考慮し、距離分布の低い定量値を用いて定義される。
kdiffをクラスタリングと分類問題のための距離尺度として用いた分離性条件について,いくつかの理論的結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T22:54:17Z) - Fast and Robust Comparison of Probability Measures in Heterogeneous
Spaces [62.35667646858558]
本稿では, アンカー・エナジー (AE) とアンカー・ワッサースタイン (AW) 距離を紹介する。
我々の主な貢献は、素案実装が立方体となる対数四重項時間でAEを正確に計算するスイープラインアルゴリズムを提案することである。
AE と AW は,一般的な GW 近似の計算コストのごく一部において,様々な実験環境において良好に動作することを示す。
論文 参考訳(メタデータ) (2020-02-05T03:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。