論文の概要: Strongly Isomorphic Neural Optimal Transport Across Incomparable Spaces
- arxiv url: http://arxiv.org/abs/2407.14957v1
- Date: Sat, 20 Jul 2024 18:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 19:58:07.189610
- Title: Strongly Isomorphic Neural Optimal Transport Across Incomparable Spaces
- Title(参考訳): 非可逆空間における強等方性ニューラル最適輸送
- Authors: Athina Sotiropoulou, David Alvarez-Melis,
- Abstract要約: 本稿ではGromov-Monge問題の基本的性質の1つに根ざした新しいニューラルな定式化について述べる。
学習可能なOTマップを2つのコンポーネントに分解することで、この特性を運用する。
我々のフレームワークは、様々な空間にわたるOTマップを学習するための有望なアプローチを提供する。
- 参考スコア(独自算出の注目度): 7.535219325248997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal Transport (OT) has recently emerged as a powerful framework for learning minimal-displacement maps between distributions. The predominant approach involves a neural parametrization of the Monge formulation of OT, typically assuming the same space for both distributions. However, the setting across ``incomparable spaces'' (e.g., of different dimensionality), corresponding to the Gromov- Wasserstein distance, remains underexplored, with existing methods often imposing restrictive assumptions on the cost function. In this paper, we present a novel neural formulation of the Gromov-Monge (GM) problem rooted in one of its fundamental properties: invariance to strong isomorphisms. We operationalize this property by decomposing the learnable OT map into two components: (i) an approximate strong isomorphism between the source distribution and an intermediate reference distribution, and (ii) a GM-optimal map between this reference and the target distribution. Our formulation leverages and extends the Monge gap regularizer of Uscidda & Cuturi (2023) to eliminate the need for complex architectural requirements of other neural OT methods, yielding a simple but practical method that enjoys favorable theoretical guarantees. Our preliminary empirical results show that our framework provides a promising approach to learn OT maps across diverse spaces.
- Abstract(参考訳): Optimal Transport (OT)は、分散間の最小変位マップを学習するための強力なフレームワークとして最近登場した。
主なアプローチは、一般に両方の分布に対して同じ空間を仮定する OT のモンジュ定式化のニューラルパラメトリゼーションである。
しかし、Gromov-Wasserstein 距離に対応する '`incomparable space' (eg , of different dimensionality)' にまたがる設定は未探検のままであり、既存の手法はコスト関数に制限的な仮定を課すことが多い。
本稿では,Gromov-Monge(GM)問題をその基本的性質の1つ,強同型への不変性に根ざした新しいニューラル定式化を提案する。
学習可能なOTマップを2つのコンポーネントに分解することで、この特性を運用する。
(i)ソース分布と中間基準分布との近似強同型、及び
(ii)この基準と対象分布の間のGM-最適写像。
我々の定式化は、Uscidda & Cuturi (2023) の Monge gap regularizer を活用して、他の OT 手法の複雑なアーキテクチャ要件を排除し、理論的保証を好む単純で実用的な方法をもたらす。
予備的な実験結果から,本フレームワークは多様な空間にまたがるOTマップを学習するための有望なアプローチを提供することが示された。
関連論文リスト
- Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Distribution-Dependent Rates for Multi-Distribution Learning [26.38831409926518]
最近のマルチディストリビューション学習フレームワークは、環境との動的相互作用において、この目的に対処する。
我々は, MDL体制における分布依存性の保証を行い, 最適値以下の差でスケールし, その結果, 試料サイズへの依存度が向上することを示した。
適応型楽観的アルゴリズム LCB-DR を考案し,マルチアームバンディット文学における均一性と楽観的アロケーションのコントラストを反映した。
論文 参考訳(メタデータ) (2023-12-20T15:50:16Z) - Generalized Schrödinger Bridge Matching [54.171931505066]
一般化Schr"odinger Bridge (GSB) 問題設定は、機械学習の内外を問わず、多くの科学領域で一般的である。
我々は最近の進歩に触発された新しいマッチングアルゴリズムである一般化シュリンガーブリッジマッチング(GSBM)を提案する。
このような一般化は条件最適制御の解法として、変分近似を用いることができることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:42:11Z) - Normalizing flow sampling with Langevin dynamics in the latent space [12.91637880428221]
正規化フロー(NF)は、連続生成器を使用して、単純な潜伏分布(例えばガウス分布)をトレーニングデータセットに関連する経験的対象分布にマッピングする。
標準NFは可微分写像を実装しているため、複雑な分布を対象とする場合、病理学的挙動に悩まされることがある。
本稿では,マルコフ連鎖モンテカルロアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-20T09:31:35Z) - Turning Normalizing Flows into Monge Maps with Geodesic Gaussian
Preserving Flows [0.0]
本稿では,任意の訓練済みNFを最終密度を変化させることなく,よりOT効率の高いバージョンに変換する手法を提案する。
我々は、ソースと最終密度の間のOTコストを最小化するソース(ガウス)分布の再配置を学習する。
提案手法は, モデル性能に影響を与えることなく, 既存のモデルのOTコストを低減し, 滑らかな流れをもたらす。
論文 参考訳(メタデータ) (2022-09-22T09:16:42Z) - Optimal Scaling for Locally Balanced Proposals in Discrete Spaces [65.14092237705476]
離散空間におけるMetropolis-Hastings (M-H) アルゴリズムの効率は、対象分布に依存しない受容率によって特徴づけられることを示す。
最適受容率の知識は、連続空間におけるステップサイズ制御と直接的に類似して、離散空間における提案分布の近傍サイズを自動的に調整することを可能にする。
論文 参考訳(メタデータ) (2022-09-16T22:09:53Z) - Cooperative Distribution Alignment via JSD Upper Bound [7.071749623370137]
教師なし分布アライメントは、2つ以上のソース分布を共有整列分布にマッピングする変換を推定する。
このタスクには、生成モデリング、教師なしドメイン適応、社会的に認識された学習など、多くの応用がある。
我々は,従来のフローベースアプローチを,単一の非逆数フレームワークで統一し,一般化することを提案する。
論文 参考訳(メタデータ) (2022-07-05T20:09:03Z) - Cycle Consistent Probability Divergences Across Different Spaces [38.43511529063335]
確率分布の相違は、統計的推測と機械学習の核心にある。
本研究は, 異方性, 異方性, 異方性, 異なる空間上の分布をマッチングするための, アンバランスなモンジュ最適輸送定式化を提案する。
論文 参考訳(メタデータ) (2021-11-22T16:35:58Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。