論文の概要: Progressive Tempering Sampler with Diffusion
- arxiv url: http://arxiv.org/abs/2506.05231v1
- Date: Thu, 05 Jun 2025 16:46:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.830512
- Title: Progressive Tempering Sampler with Diffusion
- Title(参考訳): 拡散型プログレッシブテンパリングサンプリング器
- Authors: Severi Rissanen, RuiKang OuYang, Jiajun He, Wenlin Chen, Markus Heinonen, Arno Solin, José Miguel Hernández-Lobato,
- Abstract要約: 本研究では, 拡散モデルを温度にわたって逐次訓練するニューラルサンプリング器を提案する。
また, 高温拡散モデルを組み合わせて低温試料を近似的に生成する手法を提案する。
本手法は,拡散型ニューラルサンプリングよりも高い精度で目標評価効率を向上する。
- 参考スコア(独自算出の注目度): 43.9109352982648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has focused on designing neural samplers that amortize the process of sampling from unnormalized densities. However, despite significant advancements, they still fall short of the state-of-the-art MCMC approach, Parallel Tempering (PT), when it comes to the efficiency of target evaluations. On the other hand, unlike a well-trained neural sampler, PT yields only dependent samples and needs to be rerun -- at considerable computational cost -- whenever new samples are required. To address these weaknesses, we propose the Progressive Tempering Sampler with Diffusion (PTSD), which trains diffusion models sequentially across temperatures, leveraging the advantages of PT to improve the training of neural samplers. We also introduce a novel method to combine high-temperature diffusion models to generate approximate lower-temperature samples, which are minimally refined using MCMC and used to train the next diffusion model. PTSD enables efficient reuse of sample information across temperature levels while generating well-mixed, uncorrelated samples. Our method significantly improves target evaluation efficiency, outperforming diffusion-based neural samplers.
- Abstract(参考訳): 近年の研究では、正規化されていない密度からサンプリングする過程を記憶する神経サンプルの設計に焦点が当てられている。
しかし, 現状のMCMCアプローチであるParallel Tempering (PT) では, 目標評価の効率性に関しては依然として不十分である。
一方、よく訓練されたニューラルサンプリングとは違い、PTは依存するサンプルのみを出力し、新しいサンプルが必要とされるたびに -- かなりの計算コストで -- 再実行する必要がある。
これらの弱点に対処するために,PTの利点を生かしたPTSD(Progressive Tempering Sampler with Diffusion)を提案する。
また, 高温拡散モデルを組み合わせて, MCMCを用いて最小限に精製し, 次の拡散モデルを訓練する, 近似低温試料を生成する手法を提案する。
PTSDは、よく混合された非相関なサンプルを生成しながら、温度レベルのサンプル情報の効率的な再利用を可能にする。
本手法は,拡散型ニューラルサンプリングよりも高い精度で目標評価効率を向上する。
関連論文リスト
- On scalable and efficient training of diffusion samplers [26.45926098524023]
データがない場合、非正規化エネルギー分布からサンプルを採取するために拡散モデルを訓練することの課題に対処する。
そこで我々は,従来の強力なサンプリング手法と拡散サンプリングを適切に調和させる,スケーラブルでサンプル効率のよいフレームワークを提案する。
本手法は,拡散サンプリングの標準ベンチマークにおける試料効率を大幅に向上し,高次元問題や実世界の分子コンホメータ生成に優れる。
論文 参考訳(メタデータ) (2025-05-26T06:16:34Z) - Inference-Time Diffusion Model Distillation [59.350789627086456]
本稿では,新しい推論時間蒸留フレームワークであるDistillation++を紹介する。
条件付きサンプリングの最近の進歩に触発されて,本手法は学生モデルサンプリングを近位最適化問題として再放送する。
逆サンプリング中の蒸留最適化を統合し,教師指導とみなすことができる。
論文 参考訳(メタデータ) (2024-12-12T02:07:17Z) - EM Distillation for One-step Diffusion Models [65.57766773137068]
最小品質の損失を最小限に抑えた1ステップ生成モデルに拡散モデルを蒸留する最大可能性に基づく手法を提案する。
本研究では, 蒸留プロセスの安定化を図るため, 再パラメータ化サンプリング手法とノイズキャンセリング手法を開発した。
論文 参考訳(メタデータ) (2024-05-27T05:55:22Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Boosting Diffusion Models with an Adaptive Momentum Sampler [21.88226514633627]
本稿では,広く使用されているAdamサンプルから着想を得た新しいDPM用リバースサンプルについて述べる。
提案手法は,事前学習した拡散モデルに容易に適用できる。
初期段階から更新方向を暗黙的に再利用することにより,提案するサンプルは,高レベルのセマンティクスと低レベルの詳細とのバランスを良くする。
論文 参考訳(メタデータ) (2023-08-23T06:22:02Z) - Entropy-based Training Methods for Scalable Neural Implicit Sampler [20.35664492719671]
本稿では,制限を克服する,効率的でスケーラブルな暗黙的ニューラルサンプリング手法を提案する。
暗黙のサンプルは計算コストの低い大量のサンプルを生成することができる。
この2つのトレーニング手法を用いることで、目的の分布から学習し、生成する神経暗黙のサンプルを効果的に最適化する。
論文 参考訳(メタデータ) (2023-06-08T05:56:05Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。