論文の概要: Turning Normalizing Flows into Monge Maps with Geodesic Gaussian
Preserving Flows
- arxiv url: http://arxiv.org/abs/2209.10873v4
- Date: Fri, 14 Apr 2023 05:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 17:05:58.375397
- Title: Turning Normalizing Flows into Monge Maps with Geodesic Gaussian
Preserving Flows
- Title(参考訳): 測地ガウス保存流による正規化フローをモンジュマップに変換する
- Authors: Guillaume Morel (IMT Atlantique - ITI), Lucas Drumetz (IMT Atlantique
- MEE, Lab-STICC\_OSE), Simon Bena\"ichouche (IMT Atlantique), Nicolas Courty
(IRISA, UBS), Fran\c{c}ois Rousseau (IMT Atlantique - ITI, LaTIM)
- Abstract要約: 本稿では,任意の訓練済みNFを最終密度を変化させることなく,よりOT効率の高いバージョンに変換する手法を提案する。
我々は、ソースと最終密度の間のOTコストを最小化するソース(ガウス)分布の再配置を学習する。
提案手法は, モデル性能に影響を与えることなく, 既存のモデルのOTコストを低減し, 滑らかな流れをもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Normalizing Flows (NF) are powerful likelihood-based generative models that
are able to trade off between expressivity and tractability to model complex
densities. A now well established research avenue leverages optimal transport
(OT) and looks for Monge maps, i.e. models with minimal effort between the
source and target distributions. This paper introduces a method based on
Brenier's polar factorization theorem to transform any trained NF into a more
OT-efficient version without changing the final density. We do so by learning a
rearrangement of the source (Gaussian) distribution that minimizes the OT cost
between the source and the final density. We further constrain the path leading
to the estimated Monge map to lie on a geodesic in the space of
volume-preserving diffeomorphisms thanks to Euler's equations. The proposed
method leads to smooth flows with reduced OT cost for several existing models
without affecting the model performance.
- Abstract(参考訳): 正規化フロー(NF)は、複雑な密度をモデル化するために、表現性とトラクタビリティをトレードオフできる強力な可能性ベースの生成モデルである。
現在確立された研究経路は最適輸送(OT)を活用し、ソースとターゲットの分布の最小限の労力でMongeマップを探す。
本稿では,brenier の極分解定理に基づいて,訓練された nf を最終密度を変化させることなくより ot 効率の高いバージョンに変換する手法を提案する。
私たちは、ソースと最終密度の間のotコストを最小化するソース(ガウス分布)の再配置を学習することによって、そうする。
さらに、オイラー方程式による体積保存微分同相の空間における測地線上の推定モンジュ写像に至る経路をさらに制約する。
提案手法は, モデル性能に影響を与えることなく, 既存モデルのotコストを低減したスムースフローを実現する。
関連論文リスト
- Straightness of Rectified Flow: A Theoretical Insight into Wasserstein Convergence [54.580605276017096]
拡散モデルは画像生成とデノナイズのための強力なツールとして登場した。
最近、Liuらは新しい代替生成モデル Rectified Flow (RF) を設計した。
RFは,一連の凸最適化問題を用いて,ノイズからデータへの直流軌跡の学習を目的としている。
論文 参考訳(メタデータ) (2024-10-19T02:36:11Z) - Strongly Isomorphic Neural Optimal Transport Across Incomparable Spaces [7.535219325248997]
本稿ではGromov-Monge問題の基本的性質の1つに根ざした新しいニューラルな定式化について述べる。
学習可能なOTマップを2つのコンポーネントに分解することで、この特性を運用する。
我々のフレームワークは、様々な空間にわたるOTマップを学習するための有望なアプローチを提供する。
論文 参考訳(メタデータ) (2024-07-20T18:27:11Z) - Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Mixed Gaussian Flow for Diverse Trajectory Prediction [78.00204650749453]
混合ガウスを将来の軌跡多様体に変換するためのフローベースモデルを提案する。
このモデルでは、多様な軌道パターンを生成する能力が向上している。
また,多様な,制御可能な,分布外のトラジェクトリを生成可能であることも実証した。
論文 参考訳(メタデータ) (2024-02-19T15:48:55Z) - Generative Modeling through the Semi-dual Formulation of Unbalanced
Optimal Transport [9.980822222343921]
非平衡最適輸送(UOT)の半二重定式化に基づく新しい生成モデルを提案する。
OTとは異なり、UOTは分散マッチングの厳しい制約を緩和する。このアプローチは、外れ値に対する堅牢性、トレーニング中の安定性、より高速な収束を提供する。
CIFAR-10ではFIDスコアが2.97、CelebA-HQ-256では6.36である。
論文 参考訳(メタデータ) (2023-05-24T06:31:05Z) - Normalizing flow sampling with Langevin dynamics in the latent space [12.91637880428221]
正規化フロー(NF)は、連続生成器を使用して、単純な潜伏分布(例えばガウス分布)をトレーニングデータセットに関連する経験的対象分布にマッピングする。
標準NFは可微分写像を実装しているため、複雑な分布を対象とする場合、病理学的挙動に悩まされることがある。
本稿では,マルコフ連鎖モンテカルロアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-20T09:31:35Z) - The Schr\"odinger Bridge between Gaussian Measures has a Closed Form [101.79851806388699]
我々は OT の動的定式化(Schr"odinger bridge (SB) 問題)に焦点を当てる。
本稿では,ガウス測度間のSBに対する閉形式表現について述べる。
論文 参考訳(メタデータ) (2022-02-11T15:59:01Z) - Resampling Base Distributions of Normalizing Flows [0.0]
学習された拒絶サンプリングに基づいて,フローを正規化するためのベース分布を導入する。
ログライクリフの最大化と逆Kulback-Leibler分散の最適化の両方を用いて、適切な学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-10-29T14:44:44Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z) - Learning Implicit Generative Models with Theoretical Guarantees [12.761710596142109]
我々はtextbfimplicit textbfmodeling (UnifiGem) のためのtextbfunified textbfframework を提案する。
UnifiGemは、最適輸送、数値ODE、密度比(密度差)推定、ディープニューラルネットワークのアプローチを統合する。
合成データセットと実ベンチマークデータセットの両方の実験結果は、我々の理論的な結果をサポートし、UnifiGemの有効性を実証する。
論文 参考訳(メタデータ) (2020-02-07T15:55:48Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。