論文の概要: Embedding Empirical Distributions for Computing Optimal Transport Maps
- arxiv url: http://arxiv.org/abs/2504.17740v1
- Date: Thu, 24 Apr 2025 16:52:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.475534
- Title: Embedding Empirical Distributions for Computing Optimal Transport Maps
- Title(参考訳): 最適輸送図計算のための経験的分布の埋め込み
- Authors: Mingchen Jiang, Peng Xu, Xichen Ye, Xiaohui Chen, Yun Yang, Yifan Chen,
- Abstract要約: 我々は,新しい経験的分布のためのトランスポートマップを学習するための新しいアプローチを提案する。
異なる長さの分布データから埋め込みを生成するために変換器アーキテクチャを用いる。
これらの埋め込みはハイパーネットワークに入力され、ニューラルOTマップを生成する。
- 参考スコア(独自算出の注目度): 20.78001177211786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributional data have become increasingly prominent in modern signal processing, highlighting the necessity of computing optimal transport (OT) maps across multiple probability distributions. Nevertheless, recent studies on neural OT methods predominantly focused on the efficient computation of a single map between two distributions. To address this challenge, we introduce a novel approach to learning transport maps for new empirical distributions. Specifically, we employ the transformer architecture to produce embeddings from distributional data of varying length; these embeddings are then fed into a hypernetwork to generate neural OT maps. Various numerical experiments were conducted to validate the embeddings and the generated OT maps. The model implementation and the code are provided on https://github.com/jiangmingchen/HOTET.
- Abstract(参考訳): 分散データは現代の信号処理においてますます顕著になり、複数の確率分布にまたがる最適輸送(OT)マップの計算の必要性を強調している。
しかしながら、最近のニューラルOT法の研究は、主に2つの分布間の1つのマップの効率的な計算に焦点を当てている。
この課題に対処するために、我々は、新しい経験的分布のためのトランスポートマップを学習するための新しいアプローチを導入する。
具体的には,異なる長さの分布データから埋め込みを生成するためにトランスフォーマーアーキテクチャを使用し,これらの埋め込みをハイパーネットワークに入力してニューラルOTマップを生成する。
埋め込みと生成したOTマップを検証するために, 種々の数値実験を行った。
モデルの実装とコードはhttps://github.com/jiangmingchen/HOTETで提供されている。
関連論文リスト
- Overcoming Fake Solutions in Semi-Dual Neural Optimal Transport: A Smoothing Approach for Learning the Optimal Transport Plan [5.374547520354591]
ニューラルネットワークでOTマップを学習する手段として広く使用されているセミデュアルニューラルネットワークは、ひとつのディストリビューションを正確に別のディストリビューションに転送できない偽のソリューションを生成することが多い。
本稿では, OTマップと最適輸送計画の両方を学習し, 2つの分布間の最適結合を表現した新しい OTP を提案する。
実験の結果,OTPモデルは既存の手法が失敗する最適なトランスポートマップを復元し,画像と画像の変換タスクにおいて現在のOTベースモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-07T00:37:12Z) - Improving Neural Optimal Transport via Displacement Interpolation [16.474572112062535]
最適輸送(OT)理論は、ソース分布をターゲット分布に移動させるコスト最小化輸送マップを考察する。
本稿では, 安定度を向上し, 変位を利用した OT Map の近似性を向上する手法を提案する。
画像から画像への変換タスクにおいて,DIOTMが既存のOTベースモデルより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T16:42:23Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Analyzing and Improving Optimal-Transport-based Adversarial Networks [9.980822222343921]
最適輸送(OT)問題は、与えられたコスト関数を最小化しつつ、2つの分布をブリッジする輸送計画を見つけることを目的としている。
OT理論は生成モデリングに広く利用されている。
提案手法はCIFAR-10では2.51点,CelebA-HQ-256では5.99点のFIDスコアを得た。
論文 参考訳(メタデータ) (2023-10-04T06:52:03Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Scalable Computation of Monge Maps with General Costs [12.273462158073302]
モンジュマップ(Monge map)は、2つの確率分布の間の最適な輸送マップを指す。
本稿では,2つの確率分布間のMongeマップをスケーラブルに計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T17:23:24Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and
Localization [64.39761523935613]
本稿では,画像中の異常を同時検出・ローカライズするPatch Distribution Modeling, PaDiMを提案する。
PaDiMは、パッチの埋め込みに事前訓練された畳み込みニューラルネットワーク(CNN)を使用している。
また、CNNの異なるセマンティックレベル間の相関を利用して、異常のローカライズも改善している。
論文 参考訳(メタデータ) (2020-11-17T17:29:18Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z) - AE-OT-GAN: Training GANs from data specific latent distribution [21.48007565143911]
GAN(Generative Adversarial Network)は、現実的かつクリップな画像を生成するモデルである。
GANはしばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することから訓練に固執する。
最近提案されたAE-OTモデルでは、不連続なdistribu-tion変換マップを明示的に計算することで、この問題に対処している。
本稿では,AE-OT-GANモデルを用いて,高品質な画像を生成すると同時に,モード崩壊/混合問題を克服する。
論文 参考訳(メタデータ) (2020-01-11T01:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。