論文の概要: Cycle Consistent Probability Divergences Across Different Spaces
- arxiv url: http://arxiv.org/abs/2111.11328v1
- Date: Mon, 22 Nov 2021 16:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:07:12.673752
- Title: Cycle Consistent Probability Divergences Across Different Spaces
- Title(参考訳): 異なる空間にまたがるサイクル一貫性確率の発散
- Authors: Zhengxin Zhang, Youssef Mroueh, Ziv Goldfeld, Bharath K. Sriperumbudur
- Abstract要約: 確率分布の相違は、統計的推測と機械学習の核心にある。
本研究は, 異方性, 異方性, 異方性, 異なる空間上の分布をマッチングするための, アンバランスなモンジュ最適輸送定式化を提案する。
- 参考スコア(独自算出の注目度): 38.43511529063335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrepancy measures between probability distributions are at the core of
statistical inference and machine learning. In many applications, distributions
of interest are supported on different spaces, and yet a meaningful
correspondence between data points is desired. Motivated to explicitly encode
consistent bidirectional maps into the discrepancy measure, this work proposes
a novel unbalanced Monge optimal transport formulation for matching, up to
isometries, distributions on different spaces. Our formulation arises as a
principled relaxation of the Gromov-Haussdroff distance between metric spaces,
and employs two cycle-consistent maps that push forward each distribution onto
the other. We study structural properties of the proposed discrepancy and, in
particular, show that it captures the popular cycle-consistent generative
adversarial network (GAN) framework as a special case, thereby providing the
theory to explain it. Motivated by computational efficiency, we then kernelize
the discrepancy and restrict the mappings to parametric function classes. The
resulting kernelized version is coined the generalized maximum mean discrepancy
(GMMD). Convergence rates for empirical estimation of GMMD are studied and
experiments to support our theory are provided.
- Abstract(参考訳): 確率分布間の不一致尺度は統計的推論と機械学習の核心にある。
多くのアプリケーションにおいて、関心の分布は異なる空間でサポートされるが、データポイント間の有意義な対応が望まれる。
一貫性のある双方向写像を離散測度に明示的にエンコードすることを動機付け、異なる空間上の分布をマッチングするための新しい不均衡monge最適輸送公式を提案する。
我々の定式化は、計量空間間のグロモフ・ハウスドロフ距離の原理的緩和として現れ、各分布を互いに前進させる2つのサイクル一貫性写像を用いる。
提案手法は,提案手法の構造的性質を解析し,特にgan(cycle-contributed generative adversarial network)フレームワークを特殊ケースとして捉え,その説明理論を提供する。
計算効率に動機づけられ、不一致を分離し、パラメトリック関数クラスへのマッピングを制限する。
その結果、カーネル化されたバージョンは、GMMD(Generalized maximum mean discrepancy)と呼ばれる。
gmmdの経験的推定のための収束率を研究し,この理論を支持する実験を行った。
関連論文リスト
- Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Causal Discovery in Heterogeneous Environments Under the Sparse
Mechanism Shift Hypothesis [7.895866278697778]
機械学習のアプローチは、一般に独立で同一に分散されたデータ(すなわち、d)の仮定に依存する。
実際、この仮定は環境間の分散シフトによってほとんど常に破られる。
そこで我々は,様々な経験的推定器に適用可能なスコアベースアプローチであるメカニズムシフトスコア(MSS)を提案する。
論文 参考訳(メタデータ) (2022-06-04T15:39:30Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Distribution Regression with Sliced Wasserstein Kernels [45.916342378789174]
分布回帰のための最初のOTに基づく推定器を提案する。
このような表現に基づくカーネルリッジ回帰推定器の理論的性質について検討する。
論文 参考訳(メタデータ) (2022-02-08T15:21:56Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - Distributional Sliced Embedding Discrepancy for Incomparable
Distributions [22.615156512223766]
Gromov-Wasserstein (GW) 距離は多様体学習とクロスドメイン学習の鍵となるツールである。
本稿では,分散スライシング,埋め込み,スライスされた分布間の閉形式ワッサーシュタイン距離の計算という2つの計算分布を比較する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T15:11:30Z) - Rethink Maximum Mean Discrepancy for Domain Adaptation [77.2560592127872]
本論文は,(1)最大平均距離の最小化は,それぞれソースとクラス内距離の最大化に等しいが,その差を暗黙の重みと共同で最小化し,特徴判別性は低下する,という2つの本質的な事実を理論的に証明する。
いくつかのベンチマークデータセットの実験は、理論的な結果の有効性を証明しただけでなく、我々のアプローチが比較した最先端手法よりも大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2020-07-01T18:25:10Z) - AI Giving Back to Statistics? Discovery of the Coordinate System of
Univariate Distributions by Beta Variational Autoencoder [0.0]
本稿では、単変量経験分布を分類し、累積分布関数(CDF)の入力に基づいて2次元の潜伏空間で表現するためのニューラルネットワークのトレーニング経験について論じる。
潜在2次元座標系上の表現は、CDFの形状、基礎となる理論分布とそのパラメータの分類確率、情報エントロピー、歪みなど、重要な分布特性を乱す実世界のデータの付加メタデータと見なすことができる。
論文 参考訳(メタデータ) (2020-04-06T14:11:13Z) - Schoenberg-Rao distances: Entropy-based and geometry-aware statistical
Hilbert distances [12.729120803225065]
我々は、シェーンベルク-ラオ距離(Schoenberg-Rao distances)と呼ばれる統計ヒルベルト距離のクラスを研究する。
ガウス分布の混合物間の新しい閉形式距離を導出する。
提案手法はワッサーシュタイン距離の代替として実用的であり,その効率性は幅広い機械学習タスクで説明できる。
論文 参考訳(メタデータ) (2020-02-19T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。