論文の概要: Learning Latent Space Hierarchical EBM Diffusion Models
- arxiv url: http://arxiv.org/abs/2405.13910v2
- Date: Mon, 27 May 2024 18:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 11:28:48.657143
- Title: Learning Latent Space Hierarchical EBM Diffusion Models
- Title(参考訳): 潜在空間階層型EMM拡散モデル学習
- Authors: Jiali Cui, Tian Han,
- Abstract要約: エネルギーベース先行モデルと多層ジェネレータモデルの学習問題について検討する。
近年,エネルギーベースモデル(EBM)を第2段階の補完モデルとして学習し,ギャップを埋める研究が進められている。
本研究では,EBMサンプリングの負担を軽減するために拡散確率スキームを活用することを提案する。
- 参考スコア(独自算出の注目度): 4.4996462447311725
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This work studies the learning problem of the energy-based prior model and the multi-layer generator model. The multi-layer generator model, which contains multiple layers of latent variables organized in a top-down hierarchical structure, typically assumes the Gaussian prior model. Such a prior model can be limited in modelling expressivity, which results in a gap between the generator posterior and the prior model, known as the prior hole problem. Recent works have explored learning the energy-based (EBM) prior model as a second-stage, complementary model to bridge the gap. However, the EBM defined on a multi-layer latent space can be highly multi-modal, which makes sampling from such marginal EBM prior challenging in practice, resulting in ineffectively learned EBM. To tackle the challenge, we propose to leverage the diffusion probabilistic scheme to mitigate the burden of EBM sampling and thus facilitate EBM learning. Our extensive experiments demonstrate a superior performance of our diffusion-learned EBM prior on various challenging tasks.
- Abstract(参考訳): 本研究は,エネルギーベース先行モデルと多層ジェネレータモデルの学習問題について考察する。
トップダウン階層構造で構成された複数の潜伏変数を含む多層ジェネレータモデルは、通常ガウス先行モデルを仮定する。
このような先行モデルはモデリング表現性に制限されることができ、それによって発生器後部と先行モデルの間のギャップが生じ、これは先行ホール問題と呼ばれる。
近年,エネルギーベースモデル(EBM)を第2段階の補完モデルとして学習し,ギャップを埋める研究が進められている。
しかし、多層ラテント空間上で定義されたESMは、非常に多モードであり、これは実際は困難であり、その結果、非効率に学習されたESMとなる。
この課題に対処するために,EBMサンプリングの負担を軽減し,ESM学習を容易にするために拡散確率的スキームを活用することを提案する。
我々は,様々な課題に先立って,拡散学習型EMMの優れた性能を示す実験を行った。
関連論文リスト
- Improving Adversarial Energy-Based Model via Diffusion Process [25.023967485839155]
対戦型EMMはミニマックストレーニングゲームを形成するジェネレータを導入する。
拡散モデルにインスパイアされた私たちは、長い過程をいくつかの小さなステップに分割するために、各デノイングステップにESMを組み込んだ。
本実験は, 既存の敵ESMと比較して, 世代が著しく改善したことを示す。
論文 参考訳(メタデータ) (2024-03-04T01:33:53Z) - Learning Energy-Based Prior Model with Diffusion-Amortized MCMC [89.95629196907082]
非収束短距離MCMCを用いた事前及び後方サンプリングによる潜時空間EMM学習の一般的な実践は、さらなる進歩を妨げている。
本稿では,MCMCサンプリングのための単純だが効果的な拡散型アモータイズ手法を導入し,それに基づく潜時空間EMMのための新しい学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-05T00:23:34Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - Learning Joint Latent Space EBM Prior Model for Multi-layer Generator [44.4434704520236]
多層ジェネレータモデルの学習における基礎的問題について検討する。
本稿では,全層にまたがる待ち行列空間上のエネルギーモデル (EBM) を提案する。
実験により、学習したモデルが高品質な画像を生成する際に表現できることが実証された。
論文 参考訳(メタデータ) (2023-06-10T00:27:37Z) - Latent Diffusion Energy-Based Model for Interpretable Text Modeling [104.85356157724372]
本稿では,拡散モデルと潜時空間ESMの共生を変動学習フレームワークで導入する。
我々は,学習した潜在空間の品質を向上させるために,情報ボトルネックと合わせて幾何学的クラスタリングに基づく正規化を開発する。
論文 参考訳(メタデータ) (2022-06-13T03:41:31Z) - Particle Dynamics for Learning EBMs [83.59335980576637]
エネルギーベースモデリングは教師なし学習への有望なアプローチであり、単一のモデルから多くの下流アプリケーションを生み出す。
コントラスト的アプローチ(contrastive approach)"でエネルギーベースモデルを学習する際の主な困難は、各イテレーションで現在のエネルギー関数からサンプルを生成することである。
本稿では,これらのサンプルを取得し,現行モデルからの粗大なMCMCサンプリングを回避するための代替手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T23:41:07Z) - Learning Latent Space Energy-Based Prior Model [118.86447805707094]
我々はジェネレータモデルの潜在空間でエネルギーベースモデル(EBM)を学習する。
学習したモデルが画像やテキストの生成や異常検出の点で強い性能を示すことを示す。
論文 参考訳(メタデータ) (2020-06-15T08:11:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。