論文の概要: Energy-based generator matching: A neural sampler for general state space
- arxiv url: http://arxiv.org/abs/2505.19646v1
- Date: Mon, 26 May 2025 08:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.264755
- Title: Energy-based generator matching: A neural sampler for general state space
- Title(参考訳): エネルギーベースジェネレータマッチング:一般状態空間のためのニューラルサンプリング器
- Authors: Dongyeop Woo, Minsu Kim, Minkyu Kim, Kiyoung Seong, Sungsoo Ahn,
- Abstract要約: 本研究では,データがない場合にエネルギー関数から生成モデルを学習するためのエネルギーベースジェネレータマッチング(EGM)を提案する。
EGMは、拡散、流れ、ジャンプなどの任意の連続時間マルコフ過程の訓練を可能にし、連続的、離散的、および2つのモードの混合からデータを生成することができる。
- 参考スコア(独自算出の注目度): 26.45926098524023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Energy-based generator matching (EGM), a modality-agnostic approach to train generative models from energy functions in the absence of data. Extending the recently proposed generator matching, EGM enables training of arbitrary continuous-time Markov processes, e.g., diffusion, flow, and jump, and can generate data from continuous, discrete, and a mixture of two modalities. To this end, we propose estimating the generator matching loss using self-normalized importance sampling with an additional bootstrapping trick to reduce variance in the importance weight. We validate EGM on both discrete and multimodal tasks up to 100 and 20 dimensions, respectively.
- Abstract(参考訳): 本研究では,データがない場合にエネルギー関数から生成モデルを学習するためのモーダリティ非依存の手法であるEGMを提案する。
最近提案されたジェネレータマッチングを拡張して、EGMは任意の連続時間マルコフプロセス、例えば拡散、フロー、ジャンプのトレーニングを可能にし、連続的、離散的、および2つのモードの混合からデータを生成することができる。
そこで本研究では,自己正規化重要度サンプリングと追加のブートストラップ手法を用いて,発電機の整合損失を推定し,重みのばらつきを低減することを提案する。
離散タスクとマルチモーダルタスクの両方において,ERGを最大100次元,20次元で検証する。
関連論文リスト
- Energy Matching: Unifying Flow Matching and Energy-Based Models for Generative Modeling [4.395339671282145]
エネルギーベースモデル(EBM)は、フローやスコアの一致によるノイズとデータの分布をマッピングする。
EBMの柔軟性でフローベースのアプローチを実現するフレームワークであるEnergy Matchingを提案する。
提案手法は,CIFAR-10 と ImageNet 生成における既存の EBM を大幅に上回っている。
論文 参考訳(メタデータ) (2025-04-14T18:10:58Z) - Scalable Equilibrium Sampling with Sequential Boltzmann Generators [60.00515282300297]
ボルツマン生成フレームワークを拡張し、2つの重要な改良を加えた逐次ボルツマン生成装置を導入する。
1つ目は、全原子カルテシアン座標上で直接動作する高効率な非等価トランスフォーマーベース正規化フローである。
これまでのボルツマン発生器では, トリ, テトラ, ヘキサペプチドのカルテシアン座標における最初の平衡サンプリングを実証した。
論文 参考訳(メタデータ) (2025-02-25T18:59:13Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Energy based diffusion generator for efficient sampling of Boltzmann distributions [11.855642710689704]
エネルギーベース拡散発生器(EDG)は、変分オートエンコーダと拡散モデルからアイデアを統合する新しいアプローチである。
EDGはシミュレーションなしで、訓練中に通常の方程式や微分方程式を解く必要がなくなる。
論文 参考訳(メタデータ) (2024-01-04T06:03:46Z) - Learning Probabilistic Models from Generator Latent Spaces with Hat EBM [81.35199221254763]
本研究では、エネルギーベースモデル(EBM)の基礎として、任意のジェネレータネットワークを使用する方法を提案する。
128x128解像度の非条件画像ネット合成,(2)既存の生成装置の出力の精細化,(3)非確率的生成装置を組み込んだ学習用EMMにおいて,提案手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-10-29T03:55:34Z) - Towards a scalable discrete quantum generative adversarial neural
network [8.134122612459633]
本稿では,バイナリデータを用いた完全量子生成対向ネットワークを提案する。
特に、生成器にノイズ再負荷、識別器に補助量子ビットを組み込んで、表現性を高める。
我々は、Isingモデルの合成データと低エネルギー状態の両方に対して、我々のモデルの表現力を実証的に示す。
論文 参考訳(メタデータ) (2022-09-28T10:42:38Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。