論文の概要: Learning Probabilistic Models from Generator Latent Spaces with Hat EBM
- arxiv url: http://arxiv.org/abs/2210.16486v1
- Date: Sat, 29 Oct 2022 03:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 15:04:46.354362
- Title: Learning Probabilistic Models from Generator Latent Spaces with Hat EBM
- Title(参考訳): Hat EBMを用いた発電機潜時空間からの確率モデル学習
- Authors: Mitch Hill, Erik Nijkamp, Jonathan Mitchell, Bo Pang, Song-Chun Zhu
- Abstract要約: 本研究では、エネルギーベースモデル(EBM)の基礎として、任意のジェネレータネットワークを使用する方法を提案する。
128x128解像度の非条件画像ネット合成,(2)既存の生成装置の出力の精細化,(3)非確率的生成装置を組み込んだ学習用EMMにおいて,提案手法の強い性能を示す。
- 参考スコア(独自算出の注目度): 81.35199221254763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work proposes a method for using any generator network as the foundation
of an Energy-Based Model (EBM). Our formulation posits that observed images are
the sum of unobserved latent variables passed through the generator network and
a residual random variable that spans the gap between the generator output and
the image manifold. One can then define an EBM that includes the generator as
part of its forward pass, which we call the Hat EBM. The model can be trained
without inferring the latent variables of the observed data or calculating the
generator Jacobian determinant. This enables explicit probabilistic modeling of
the output distribution of any type of generator network. Experiments show
strong performance of the proposed method on (1) unconditional ImageNet
synthesis at 128x128 resolution, (2) refining the output of existing
generators, and (3) learning EBMs that incorporate non-probabilistic
generators. Code and pretrained models to reproduce our results are available
at https://github.com/point0bar1/hat-ebm.
- Abstract(参考訳): 本研究では,エネルギーベースモデル(EBM)の基礎として,任意のジェネレータネットワークを利用する手法を提案する。
観測画像の定式化は, 生成ネットワークを通過した未観測潜伏変数の和と, 生成器出力と画像多様体とのギャップにまたがる残差変数の和である。
次に、ジェネレータを含むESMをフォワードパスの一部として定義し、それをHat EBMと呼ぶ。
モデルは観測データの潜伏変数を推測したり、ジャコビアン行列式を計算することなく訓練することができる。
これにより、任意の種類のジェネレータネットワークの出力分布の明示的な確率的モデリングが可能になる。
128x128解像度の非条件画像ネット合成,(2)既存の生成装置の出力の精錬,(3)非確率的生成装置を組み込んだ学習用EMMにおいて,提案手法の強い性能を示す。
結果を再現するためのコードと事前トレーニングされたモデルは、https://github.com/point0bar1/hat-ebmで利用可能です。
関連論文リスト
- Learning Energy-based Model via Dual-MCMC Teaching [5.31573596283377]
最大推定量(MLE)を用いてエネルギーベースモデル(EBM)を学習する。
本稿では,エネルギーベースモデル(EBM)の基本学習問題について考察する。
論文 参考訳(メタデータ) (2023-12-05T03:39:54Z) - Generative Visual Prompt: Unifying Distributional Control of Pre-Trained
Generative Models [77.47505141269035]
Generative Visual Prompt (PromptGen) は、事前訓練された生成モデルの分散制御のためのフレームワークである。
PromptGenはエネルギーベースモデル(EBM)を近似し、フィードフォワード方式で画像をサンプリングする。
コードはhttps://github.com/ChenWu98/Generative-Visual-Prompt.comで入手できる。
論文 参考訳(メタデータ) (2022-09-14T22:55:18Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Perturb-and-max-product: Sampling and learning in discrete energy-based
models [3.056751497358646]
我々は、離散エネルギーモデルでサンプリングと学習を行うための並列かつスケーラブルなメカニズムであるパーターブ・アンド・マックス・プロダクツ(PMP)を提案する。
a)Isingモデルの場合、PMPはGibsやGibs-with-Gradientsよりも桁違いに高速で、類似またはより良い品質のサンプルを学習・生成でき、(b)PMPはRBMから学習・サンプリングすることができ、(c)GibsとGWGが混在しない大きな絡み合ったグラフィカルモデルでPMPが成功することを示す。
論文 参考訳(メタデータ) (2021-11-03T18:23:31Z) - Controllable and Compositional Generation with Latent-Space Energy-Based
Models [60.87740144816278]
制御可能な生成は、現実世界のアプリケーションで深層生成モデルの採用を成功させる上で重要な要件の1つである。
本研究では, エネルギーモデル(EBM)を用いて, 属性の集合上での合成生成を扱う。
エネルギー関数を論理演算子と合成することにより、分解能1024x1024のフォトリアリスティック画像を生成する際に、このような構成性を実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-10-21T03:31:45Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Learning Latent Space Energy-Based Prior Model [118.86447805707094]
我々はジェネレータモデルの潜在空間でエネルギーベースモデル(EBM)を学習する。
学習したモデルが画像やテキストの生成や異常検出の点で強い性能を示すことを示す。
論文 参考訳(メタデータ) (2020-06-15T08:11:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。