論文の概要: Progressive Inference-Time Annealing of Diffusion Models for Sampling from Boltzmann Densities
- arxiv url: http://arxiv.org/abs/2506.16471v1
- Date: Thu, 19 Jun 2025 17:14:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.182622
- Title: Progressive Inference-Time Annealing of Diffusion Models for Sampling from Boltzmann Densities
- Title(参考訳): ボルツマン密度からのサンプリングのための拡散モデルの漸進的推論-時間アニーリング
- Authors: Tara Akhound-Sadegh, Jungyoon Lee, Avishek Joey Bose, Valentin De Bortoli, Arnaud Doucet, Michael M. Bronstein, Dominique Beaini, Siamak Ravanbakhsh, Kirill Neklyudov, Alexander Tong,
- Abstract要約: 拡散に基づくサンプル学習のために, PITA(Progressive Inference-Time Annealing)を提案する。
PITAはボルツマン分布のアナーリングと拡散平滑化という2つの相補的手法を組み合わせたものである。
N-体粒子系、アラニンジペプチド、トリペプチドの平衡サンプリングを可能にする。
- 参考スコア(独自算出の注目度): 85.83359661628575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sampling efficiently from a target unnormalized probability density remains a core challenge, with relevance across countless high-impact scientific applications. A promising approach towards this challenge is the design of amortized samplers that borrow key ideas, such as probability path design, from state-of-the-art generative diffusion models. However, all existing diffusion-based samplers remain unable to draw samples from distributions at the scale of even simple molecular systems. In this paper, we propose Progressive Inference-Time Annealing (PITA), a novel framework to learn diffusion-based samplers that combines two complementary interpolation techniques: I.) Annealing of the Boltzmann distribution and II.) Diffusion smoothing. PITA trains a sequence of diffusion models from high to low temperatures by sequentially training each model at progressively higher temperatures, leveraging engineered easy access to samples of the temperature-annealed target density. In the subsequent step, PITA enables simulating the trained diffusion model to procure training samples at a lower temperature for the next diffusion model through inference-time annealing using a novel Feynman-Kac PDE combined with Sequential Monte Carlo. Empirically, PITA enables, for the first time, equilibrium sampling of N-body particle systems, Alanine Dipeptide, and tripeptides in Cartesian coordinates with dramatically lower energy function evaluations. Code available at: https://github.com/taraak/pita
- Abstract(参考訳): 対象の非正規化確率密度から効率的にサンプリングすることは、数え切れないほどの高影響の科学応用に関係して、依然として中心的な課題である。
この挑戦に対する有望なアプローチは、最先端の生成拡散モデルから確率経路設計のような重要なアイデアを借用する、償却されたサンプルの設計である。
しかし、既存の拡散型サンプリング装置は、単純な分子系のスケールで分布からサンプルを引けないままである。
本稿では,2つの補間手法を組み合わせた拡散型サンプリング手法を学習するための新しいフレームワークであるProgressive Inference-Time Annealing(PITA)を提案する。
)ボルツマン分布のアニーリングとII。
拡散平滑化)。
PITAは高温から低温までの一連の拡散モデルを訓練し、各モデルを徐々に高温で連続的に訓練し、温度アニールされたターゲット密度のサンプルに容易にアクセスできるようにする。
その後の段階において、PITAは、トレーニングされた拡散モデルを用いて、新しいFeynman-Kac PDEとSequential Monte Carloを組み合わせた推論時アニーリングにより、次の拡散モデルに対する低温でのトレーニングサンプルの調達を可能にする。
実験的に、PITAはカルテシアン座標におけるN-体粒子系、アラニンジペプチド、トリペプチドの平衡サンプリングを初めて可能とし、エネルギー関数の評価を劇的に下方修正した。
コード https://github.com/taraak/pita
関連論文リスト
- Scalable Discrete Diffusion Samplers: Combinatorial Optimization and Statistical Physics [7.873510219469276]
離散拡散サンプリングのための2つの新しいトレーニング手法を提案する。
これらの手法は、メモリ効率のトレーニングを行い、教師なし最適化の最先端結果を達成する。
SN-NISとニューラルチェインモンテカルロの適応を導入し,離散拡散モデルの適用を初めて可能とした。
論文 参考訳(メタデータ) (2025-02-12T18:59:55Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Boosting Diffusion Models with Moving Average Sampling in Frequency Domain [101.43824674873508]
拡散モデルは、現在のサンプルに頼って次のサンプルをノイズ化し、おそらく不安定化を引き起こす。
本稿では,反復的復調過程をモデル最適化として再解釈し,移動平均機構を利用して全ての先行サンプルをアンサンブルする。
周波数領域における平均サンプリング(MASF)の動作」という完全なアプローチを命名する。
論文 参考訳(メタデータ) (2024-03-26T16:57:55Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。