論文の概要: A Diffusive Classification Loss for Learning Energy-based Generative Models
- arxiv url: http://arxiv.org/abs/2601.21025v1
- Date: Wed, 28 Jan 2026 20:37:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.427257
- Title: A Diffusive Classification Loss for Learning Energy-based Generative Models
- Title(参考訳): エネルギーベース生成モデル学習のための難解な分類損失
- Authors: Louis Grenioux, RuiKang OuYang, José Miguel Hernández-Lobato,
- Abstract要約: DiffCLF(Diffusive Classification, DiffCLF)は, 計算効率を保ちながら視力の低下を回避する簡易な手法である。
解析的ガウス混合の場合, 推定エネルギーを地中真理と比較することにより, DiffCLFの有効性を検証した。
以上の結果から,DiffCLFは既存手法よりも忠実度が高く,適用性も広いEMMを実現することが示唆された。
- 参考スコア(独自算出の注目度): 27.078167178968076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Score-based generative models have recently achieved remarkable success. While they are usually parameterized by the score, an alternative way is to use a series of time-dependent energy-based models (EBMs), where the score is obtained from the negative input-gradient of the energy. Crucially, EBMs can be leveraged not only for generation, but also for tasks such as compositional sampling or building Boltzmann Generators via Monte Carlo methods. However, training EBMs remains challenging. Direct maximum likelihood is computationally prohibitive due to the need for nested sampling, while score matching, though efficient, suffers from mode blindness. To address these issues, we introduce the Diffusive Classification (DiffCLF) objective, a simple method that avoids blindness while remaining computationally efficient. DiffCLF reframes EBM learning as a supervised classification problem across noise levels, and can be seamlessly combined with standard score-based objectives. We validate the effectiveness of DiffCLF by comparing the estimated energies against ground truth in analytical Gaussian mixture cases, and by applying the trained models to tasks such as model composition and Boltzmann Generator sampling. Our results show that DiffCLF enables EBMs with higher fidelity and broader applicability than existing approaches.
- Abstract(参考訳): スコアベースの生成モデルは、最近顕著な成功を収めた。
通常はスコアによってパラメータ化されるが、別の方法は、エネルギーの負の入力勾配から得られる一連の時間依存エネルギーベースモデル(EBM)を使用することである。
重要なことに、ESMはジェネレーションだけでなく、組成サンプリングやモンテカルロ法によるボルツマン・ジェネレータの構築といったタスクにも利用できる。
しかし、EBMの訓練は依然として困難である。
ネストサンプリングが必要であり、スコアマッチングは効率的ではあるが、モードブラインドネスに悩まされるため、直接の最大度は計算的に禁止される。
これらの問題に対処するために,計算効率を保ちながら視力の低下を回避する簡易な手法であるDiffCLF(Diffusive Classification, DiffCLF)を提案する。
DiffCLFは、EBM学習をノイズレベル全体にわたる教師付き分類問題として再設定し、標準スコアベースの目的とシームレスに組み合わせることができる。
モデル構成やボルツマン・ジェネレータ・サンプリングなどのタスクに対して,解析的ガウス混合の場合の地中真理に対する推定エネルギーを比較することにより,DiffCLFの有効性を検証した。
以上の結果から,DiffCLFは既存手法よりも忠実度が高く,適用性も広いEMMを実現することが示唆された。
関連論文リスト
- FALCON: Few-step Accurate Likelihoods for Continuous Flows [78.37361800856583]
本稿では,FALCON(Few-step Accurate Likelihoods for Continuous Flows)を提案する。
FALCONは分子ボルツマンサンプリングのための最先端の正規化フローモデルより優れており、同等の性能を持つCNFモデルよりも2桁高速である。
論文 参考訳(メタデータ) (2025-12-10T18:47:25Z) - BoltzNCE: Learning Likelihoods for Boltzmann Generation with Stochastic Interpolants and Noise Contrastive Estimation [1.2874523233023452]
ボルツマン分布からの効率的なサンプリングは、分子のような複雑な物理系をモデル化する上で重要な課題である。
我々は、ノイズコントラスト推定(NCE)とスコアマッチングの両方を用いて、エネルギーベースモデル(EBM)を訓練する。
また,提案手法では,実効的な転送学習を行い,推論時に新しいシステムに一般化し,標準MDよりも少なくとも6倍の高速化を実現している。
論文 参考訳(メタデータ) (2025-07-01T15:18:28Z) - Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - MCMC-Correction of Score-Based Diffusion Models for Model Composition [2.682859657520006]
拡散モデルは、スコアやエネルギー関数の観点からパラメータ化することができる。
スコア関数の行積分に基づく新しいMH型受入規則を導入する。
論文 参考訳(メタデータ) (2023-07-26T07:50:41Z) - Moment Matching Denoising Gibbs Sampling [14.75945343063504]
エネルギーベースモデル(EBM)は、複雑なデータ分散をモデル化するための汎用的なフレームワークを提供する。
スケーラブルなEMMトレーニングのための広く使われているDenoising Score Matching (DSM) 法は、矛盾の問題に悩まされている。
モーメントマッチングを用いた効率的なサンプリングフレームワーク(pseudo)-Gibbsサンプリングを提案する。
論文 参考訳(メタデータ) (2023-05-19T12:58:25Z) - Self-Adapting Noise-Contrastive Estimation for Energy-Based Models [0.0]
ノイズコントラスト推定(NCE)を用いたトレーニングエネルギーベースモデルは理論的には実現可能であるが、実際は困難である。
従来の研究は、別個の生成モデルとしてノイズ分布をモデル化し、EBMでこのノイズモデルを同時に訓練してきた。
本論文では,EMMの静的なインスタンスを学習軌道に沿って雑音分布として利用する自己適応型NCEアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-03T15:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。