論文の概要: Diffusion-based Annealed Boltzmann Generators : benefits, pitfalls and hopes
- arxiv url: http://arxiv.org/abs/2601.21026v1
- Date: Wed, 28 Jan 2026 20:40:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.428757
- Title: Diffusion-based Annealed Boltzmann Generators : benefits, pitfalls and hopes
- Title(参考訳): 拡散型Anealed Boltzmann発電機 : 利点,落とし穴,希望
- Authors: Louis Grenioux, Maxence Noble,
- Abstract要約: ボルツマン・ジェネレータ(BG)は、生成モデルとモンテカルロ補正ステップを組み合わせて、非正規化されたターゲットから非バイアスのサンプルを得る。
現在のほとんどのBGは、重要サンプリングのような古典的なMCメカニズムを使用しており、どちらもバックボーンモデルから抽出可能な可能性を必要とし、高次元のターゲットではスケールが不十分である。
我々はモンテカルロ (aMC) を焼成したBGについて検討し, 中間密度の列を通じて対象への単純な参照をブリッジすることでこれらの制限を克服することを目的としている。
- 参考スコア(独自算出の注目度): 7.677431882779154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sampling configurations at thermodynamic equilibrium is a central challenge in statistical physics. Boltzmann Generators (BGs) tackle it by combining a generative model with a Monte Carlo (MC) correction step to obtain asymptotically unbiased samples from an unnormalized target. Most current BGs use classic MC mechanisms such as importance sampling, which both require tractable likelihoods from the backbone model and scale poorly in high-dimensional, multi-modal targets. We study BGs built on annealed Monte Carlo (aMC), which is designed to overcome these limitations by bridging a simple reference to the target through a sequence of intermediate densities. Diffusion models (DMs) are powerful generative models and have already been incorporated into aMC-based recalibration schemes via the diffusion-induced density path, making them appealing backbones for aMC-BGs. We provide an empirical meta-analysis of DM-based aMC-BGs on controlled multi-modal Gaussian mixtures (varying mode separation, number of modes, and dimension), explicitly disentangling inference effects from learning effects by comparing (i) a perfectly learned DM and (ii) a DM trained from data. Even with a perfect DM, standard integrations using only first-order stochastic denoising kernels fail systematically, whereas second-order denoising kernels can substantially improve performance when covariance information is available. We further propose a deterministic aMC integration based on first-order transport maps derived from DMs, which outperforms the stochastic first-order variant at higher computational cost. Finally, in the learned-DM setting, all DM-aMC variants struggle to produce accurate BGs; we trace the main bottleneck to inaccurate DM log-density estimation.
- Abstract(参考訳): 熱力学平衡における構成のサンプリングは、統計物理学における中心的な課題である。
ボルツマン・ジェネレータ(BG)は、生成モデルとモンテカルロ補正ステップを組み合わせて、非正規化対象から漸近的に偏りのないサンプルを得る。
現在のほとんどのBGは、重要サンプリングのような古典的なMCメカニズムを使用しており、どちらもバックボーンモデルから抽出可能な可能性を必要とし、高次元のマルチモーダルターゲットでは不十分である。
我々はモンテカルロ (aMC) を焼成したBGについて検討し, 中間密度の列を通じて対象への単純な参照をブリッジすることでこれらの制限を克服することを目的としている。
拡散モデル (DM) は強力な生成モデルであり, AMC-BG のバックボーンとして, 拡散誘起密度経路を経由した再校正スキームにすでに組み込まれている。
制御された多モードガウス混合体(モード分離,モード数,次元の異なる)上で,DMをベースとしたAMC-BGの実験的メタ分析を行い,学習効果からの推論効果を比較検討した。
i)完璧に学習されたDMと
(ii)データから訓練されたDM。
完全なDMであっても、一階確率化カーネルのみを用いた標準的な統合は体系的に失敗するが、二階確率化カーネルは共分散情報が利用できる場合に性能を大幅に向上させることができる。
さらに、DMから導出される一階輸送マップに基づく決定論的AMC統合を提案し、より高い計算コストで確率的一階変量より優れた性能を示す。
最後に、DM-aMCの全ての変種は正確なBGを生成するのに苦労し、DMログ密度推定の不正確なボトルネックを辿った。
関連論文リスト
- SCORENF: Score-based Normalizing Flows for Sampling Unnormalized distributions [5.204468049641428]
正規化フローアーキテクチャ上に構築されたスコアベースの学習フレームワークであるScoreNFを提案する。
ScoreNFは訓練アンサンブルが小さい場合でも高い性能を維持していることを示す。
また,モード被覆とモード崩壊の挙動を評価する手法を提案する。
論文 参考訳(メタデータ) (2025-10-24T10:43:19Z) - CREPE: Controlling Diffusion with Replica Exchange [32.38925001748167]
拡散モデルの推論時間制御は、モデル出力を操り、再学習せずに新しい制約を満たすことを目的としている。
レプリカ交換に基づくフレキシブルな代替案を提案する。
CREPE:(1) 粒子を逐次生成し,(2) 燃焼後の試料の多様性を高く維持し,(3) オンライン精製や早期終了を可能にする。
論文 参考訳(メタデータ) (2025-09-27T11:45:37Z) - End-To-End Learning of Gaussian Mixture Priors for Diffusion Sampler [15.372235873766812]
学習可能な混合前駆体は、探索の制御を改善し、目標支援への適応性を高め、モード崩壊に対抗するために増強する。
実験結果から,様々な実環境および総合的なベンチマーク問題に対して,大幅な性能向上が得られた。
論文 参考訳(メタデータ) (2025-03-01T14:58:14Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - BlindDiff: Empowering Degradation Modelling in Diffusion Models for Blind Image Super-Resolution [52.47005445345593]
BlindDiff は SISR のブラインド劣化に対処するための DM ベースのブラインドSR 手法である。
BlindDiffはMAPベースの最適化をDMにシームレスに統合する。
合成データセットと実世界のデータセットの両方の実験は、BlindDiffが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2024-03-15T11:21:34Z) - Generalized Contrastive Divergence: Joint Training of Energy-Based Model
and Diffusion Model through Inverse Reinforcement Learning [13.22531381403974]
Generalized Contrastive Divergence (GCD) はエネルギーベースモデル(EBM)とサンプルを同時にトレーニングするための新しい目的関数である。
EBMと拡散モデルの両方にジョイントトレーニングが有用であることを示す予備的かつ有望な結果を示す。
論文 参考訳(メタデータ) (2023-12-06T10:10:21Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。