論文の概要: Energy-guided Entropic Neural Optimal Transport
- arxiv url: http://arxiv.org/abs/2304.06094v2
- Date: Mon, 12 Jun 2023 10:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 00:31:40.238328
- Title: Energy-guided Entropic Neural Optimal Transport
- Title(参考訳): エネルギー誘導型エントロピー神経輸送
- Authors: Petr Mokrov and Alexander Korotin and Alexander Kolesov and Nikita
Gushchin and Evgeny Burnaev
- Abstract要約: エネルギーベースモデル(EBM)は、機械学習コミュニティで数十年にわたって知られている。
EBMとEntropy-regularized OTのギャップを埋める。
簡単なこととして、エネルギー誘導型エントロピーOT法のバックボーンとして、単純なロングラン EBM を選択する。
- 参考スコア(独自算出の注目度): 121.48794186807952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Energy-Based Models (EBMs) are known in the Machine Learning community for
decades. Since the seminal works devoted to EBMs dating back to the noughties
there have been appearing a lot of efficient methods which solve the generative
modelling problem by means of energy potentials (unnormalized likelihood
functions). In contrast, the realm of Optimal Transport (OT) and, in
particular, neural OT solvers is much less explored and limited by few recent
works (excluding WGAN based approaches which utilize OT as a loss function and
do not model OT maps themselves). In our work, we bridge the gap between EBMs
and Entropy-regularized OT. We present the novel methodology which allows
utilizing the recent developments and technical improvements of the former in
order to enrich the latter. From the theoretical perspectives, we prove
generalization bounds for our approach. In practice, we validate its
applicability on toy 2D scenarios as well as standard unpaired image-to-image
translation problems. For simplicity, we choose simple long-run EBMs as a
backbone of our Energy-guided Entropic OT method, leaving the application of
more sophisticated EBMs for future research.
- Abstract(参考訳): エネルギーベースモデル(EBM)は、機械学習コミュニティで数十年にわたって知られている。
エネルギポテンシャル(英語版) (unnormalized chance function) を用いて生成的モデリング問題を解決する効率的な方法が数多く現れている。
対照的に、オプティマルトランスポート(OT)と特にニューラルOTソルバの領域は、最近のいくつかの研究(ロス関数としてOTを応用し、OTマップ自体をモデル化しないWGANベースのアプローチを除く)により、明らかに研究され、制限されている。
本研究では,EBMとEntropy-regularized OTのギャップを埋める。
本稿では,前者の最近の発展と技術的改善を活かし,後者を豊かにするための新しい手法を提案する。
理論的観点から、我々のアプローチの一般化境界を証明する。
実際、おもちゃの2dシナリオや、画像から画像への標準的な変換問題に対する適用性を検証する。
簡単なこととして、我々はEnergy-guided Entropic OT 法のバックボーンとして単純な長寿命 EBM を選択し、将来の研究にもっと洗練された EBM を応用した。
関連論文リスト
- Learning Latent Space Hierarchical EBM Diffusion Models [4.4996462447311725]
エネルギーベース先行モデルと多層ジェネレータモデルの学習問題について検討する。
近年,エネルギーベースモデル(EBM)を第2段階の補完モデルとして学習し,ギャップを埋める研究が進められている。
本研究では,EBMサンプリングの負担を軽減するために拡散確率スキームを活用することを提案する。
論文 参考訳(メタデータ) (2024-05-22T18:34:25Z) - Improving Adversarial Energy-Based Model via Diffusion Process [25.023967485839155]
対戦型EMMはミニマックストレーニングゲームを形成するジェネレータを導入する。
拡散モデルにインスパイアされた私たちは、長い過程をいくつかの小さなステップに分割するために、各デノイングステップにESMを組み込んだ。
本実験は, 既存の敵ESMと比較して, 世代が著しく改善したことを示す。
論文 参考訳(メタデータ) (2024-03-04T01:33:53Z) - Energy-Guided Continuous Entropic Barycenter Estimation for General Costs [95.33926437521046]
任意のOTコスト関数に対して連続的エントロピーOT(EOT)バリセンタを近似する新しいアルゴリズムを提案する。
本手法は、弱いOTに基づくEOT問題の二重再構成に基づいている。
論文 参考訳(メタデータ) (2023-10-02T11:24:36Z) - Building the Bridge of Schr\"odinger: A Continuous Entropic Optimal
Transport Benchmark [96.06787302688595]
提案手法は, 基本真理 OT 解が構成によって知られている確率分布のペアを作成する方法である。
これらのベンチマークペアを使用して、既存のニューラルネットワーク EOT/SB ソルバが実際に EOT ソリューションをどれだけよく計算しているかをテストする。
論文 参考訳(メタデータ) (2023-06-16T20:03:36Z) - Guiding Energy-based Models via Contrastive Latent Variables [81.68492940158436]
エネルギーベースモデル(EBM)は、明示的な密度とアーキテクチャの柔軟性の両方を提供する一般的な生成フレームワークである。
EBMとGANのような生成フレームワークの間には、世代品質の点で大きなギャップがあることが多い。
コントラスト表現学習によるESM改善のための新しい効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T10:50:25Z) - Bounds all around: training energy-based models with bidirectional
bounds [26.507268387712145]
エネルギーベースモデル(EBM)は密度推定のためのエレガントなフレームワークを提供するが、それらは訓練が難しいことで知られている。
近年の研究では、ESMは変動値関数を持つミニマックスゲームを通じて訓練される。
ミニマックスゲームにおいて,EBM対数ライクな二方向境界を提案し,下位境界を最大化し,上限を最小化する。
論文 参考訳(メタデータ) (2021-11-01T13:25:38Z) - A Survey on Optimal Transport for Machine Learning: Theory and
Applications [1.1279808969568252]
最適輸送(OT)理論はコンピュータ科学コミュニティから注目を集めている。
本稿では,簡単な紹介と歴史,先行研究の紹介,今後の研究の方向性について述べる。
論文 参考訳(メタデータ) (2021-06-03T16:10:42Z) - No MCMC for me: Amortized sampling for fast and stable training of
energy-based models [62.1234885852552]
エネルギーベースモデル(EBM)は、不確実性を表す柔軟で魅力的な方法である。
本稿では,エントロピー規則化ジェネレータを用いてEMMを大規模に訓練し,MCMCサンプリングを記憶する簡単な方法を提案する。
次に、最近提案されたジョイント・エナジー・モデル(JEM)に推定器を適用し、元の性能と高速で安定したトレーニングとを一致させる。
論文 参考訳(メタデータ) (2020-10-08T19:17:20Z) - How to Train Your Energy-Based Model for Regression [107.54411649704194]
近年,コンピュータビジョンにおいてエネルギーベースモデル (EBM) が普及している。
近年の作業では、回帰タスクにもESMを適用し、オブジェクト検出と視覚的トラッキングにおける最先端のパフォーマンスを実現している。
最高のレグレッションパフォーマンスのためにEBMをどのようにトレーニングするかは、十分に研究された問題ではありません。
論文 参考訳(メタデータ) (2020-05-04T17:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。