論文の概要: Conjugate Energy-Based Models
- arxiv url: http://arxiv.org/abs/2106.13798v1
- Date: Fri, 25 Jun 2021 17:51:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 13:16:49.696502
- Title: Conjugate Energy-Based Models
- Title(参考訳): 共役エネルギーモデル
- Authors: Hao Wu, Babak Esmaeili, Michael Wick, Jean-Baptiste Tristan,
Jan-Willem van de Meent
- Abstract要約: 共役エネルギーベースモデル(英: Conconjungate Energy-based model、CEBM)は、データと潜伏変数の結合密度を定義する新しいエネルギーベースモデルである。
CEBMは、データから潜伏変数への教師なしマッピングを学ぶという意味で、変分オートエンコーダのようなユースケースを持つ。
実験により,共役型EMMは画像モデリング,潜在空間の予測能力,および様々なデータセットの領域外検出において競合する結果が得られることを示した。
- 参考スコア(独自算出の注目度): 7.8112101386166195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose conjugate energy-based models (CEBMs), a new class
of energy-based models that define a joint density over data and latent
variables. The joint density of a CEBM decomposes into an intractable
distribution over data and a tractable posterior over latent variables. CEBMs
have similar use cases as variational autoencoders, in the sense that they
learn an unsupervised mapping from data to latent variables. However, these
models omit a generator network, which allows them to learn more flexible
notions of similarity between data points. Our experiments demonstrate that
conjugate EBMs achieve competitive results in terms of image modelling,
predictive power of latent space, and out-of-domain detection on a variety of
datasets.
- Abstract(参考訳): 本稿では,データと潜在変数の結合密度を定義する新しいエネルギー系モデルである共役エネルギーベースモデル(cebms)を提案する。
CEBMの結合密度は、データ上の難解な分布と遅延変数上の引き込み可能な後部分布に分解される。
CEBMは、データから潜在変数への教師なしマッピングを学ぶという意味で、変分オートエンコーダのようなユースケースを持つ。
しかし、これらのモデルはジェネレータネットワークを省略し、データポイント間の類似性のより柔軟な概念を学ぶことができる。
実験により,共役型EMMは画像モデリング,潜在空間の予測能力,および様々なデータセットの領域外検出において競合する結果が得られることを示した。
関連論文リスト
- Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Memory in Plain Sight: A Survey of the Uncanny Resemblances between
Diffusion Models and Associative Memories [68.96121108376244]
拡散モデル(DM)は、最近、多くの世代ベンチマークで最先端を定めている。
数学的に記述する方法は無数にあるため、それらがどのように機能するかを簡単に理解することは困難である。
この調査は、Associative Memories (AMs) という、非常に関連性が高く、しばしば見過ごされるエネルギーベースのモデルとの数学的関係を明らかにする。
論文 参考訳(メタデータ) (2023-09-28T17:57:09Z) - Training Discrete Energy-Based Models with Energy Discrepancy [18.161764926125066]
離散空間上でのエネルギーベースモデル(EBM)の訓練は、そのような空間上でのサンプリングが難しいため困難である。
エネルギー差分(ED)を用いた個別ESMの訓練を提案する。
格子イジングモデル,バイナリ合成データ,離散画像データセットにおいて,それらの相対的な性能を示す。
論文 参考訳(メタデータ) (2023-07-14T19:38:05Z) - Learning Joint Latent Space EBM Prior Model for Multi-layer Generator [44.4434704520236]
多層ジェネレータモデルの学習における基礎的問題について検討する。
本稿では,全層にまたがる待ち行列空間上のエネルギーモデル (EBM) を提案する。
実験により、学習したモデルが高品質な画像を生成する際に表現できることが実証された。
論文 参考訳(メタデータ) (2023-06-10T00:27:37Z) - Guiding Energy-based Models via Contrastive Latent Variables [81.68492940158436]
エネルギーベースモデル(EBM)は、明示的な密度とアーキテクチャの柔軟性の両方を提供する一般的な生成フレームワークである。
EBMとGANのような生成フレームワークの間には、世代品質の点で大きなギャップがあることが多い。
コントラスト表現学習によるESM改善のための新しい効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T10:50:25Z) - A Graphical Model for Fusing Diverse Microbiome Data [2.385985842958366]
本稿では,このような数値データを共同でモデル化するフレキシブルな多項ガウス生成モデルを提案する。
本稿では、潜在変数とモデルのパラメータを推定するための、計算にスケーラブルな変動予測-最大化(EM)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-21T17:54:39Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Prediction of liquid fuel properties using machine learning models with
Gaussian processes and probabilistic conditional generative learning [56.67751936864119]
本研究の目的は、代替燃料の物理的特性を予測するためのクロージャ方程式として機能する、安価で計算可能な機械学習モデルを構築することである。
これらのモデルは、MDシミュレーションのデータベースや、データ融合-忠実性アプローチによる実験的な測定を用いて訓練することができる。
その結果,MLモデルでは,広範囲の圧力および温度条件の燃料特性を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2021-10-18T14:43:50Z) - Learning Equivariant Energy Based Models with Equivariant Stein
Variational Gradient Descent [80.73580820014242]
本稿では,確率モデルに対称性を組み込むことにより,確率密度の効率的なサンプリングと学習の問題に焦点をあてる。
まず、等変シュタイン変分勾配Descentアルゴリズムを導入する。これは、対称性を持つ密度からサンプリングするスタインの同一性に基づく同変サンプリング法である。
我々はエネルギーベースモデルのトレーニングを改善し、スケールアップする新しい方法を提案する。
論文 参考訳(メタデータ) (2021-06-15T01:35:17Z) - Marginalizable Density Models [14.50261153230204]
本稿では,変数の任意の部分集合の確率,限界,条件に対するクローズドフォーム表現を提供する,新しいディープネットワークアーキテクチャを提案する。
このモデルはまた、変数数に時間複雑性の対数依存しか依存しない並列サンプリングを可能にする。
論文 参考訳(メタデータ) (2021-06-08T23:54:48Z) - Learning Energy-Based Model with Variational Auto-Encoder as Amortized
Sampler [35.80109055748496]
最大確率でエネルギーベースモデル(ebms)を訓練するにはマルコフ連鎖モンテカルロサンプリングが必要である。
我々は、エネルギー関数から派生したランゲビンダイナミクスのような有限ステップMCMCを初期化する変分オートエンコーダ(VAE)を学びます。
これらのアモールト化MCMCサンプルにより、ESMは「合成による分析」スキームに従って最大で訓練することができる。
我々はこの共同学習アルゴリズムを変分MCMC教育と呼び、VAEはEMMをデータ分布に向けて追従する。
論文 参考訳(メタデータ) (2020-12-29T20:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。