論文の概要: Adaptive Destruction Processes for Diffusion Samplers
- arxiv url: http://arxiv.org/abs/2506.01541v1
- Date: Mon, 02 Jun 2025 11:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.280474
- Title: Adaptive Destruction Processes for Diffusion Samplers
- Title(参考訳): 拡散サンプリングのための適応的破壊過程
- Authors: Timofei Gritsaev, Nikita Morozov, Kirill Tamogashev, Daniil Tiapkin, Sergey Samsonov, Alexey Naumov, Dmitry Vetrov, Nikolay Malkin,
- Abstract要約: 本稿では,拡散サンプリング装置におけるトレーニング可能な破壊プロセスの課題とメリットについて考察する。
ステップ数に制限がある場合、生成過程と破壊過程の両方を訓練することで、より高速な収束とサンプリング品質の向上が期待できる。
- 参考スコア(独自算出の注目度): 12.446080077998834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the challenges and benefits of a trainable destruction process in diffusion samplers -- diffusion-based generative models trained to sample an unnormalised density without access to data samples. Contrary to the majority of work that views diffusion samplers as approximations to an underlying continuous-time model, we view diffusion models as discrete-time policies trained to produce samples in very few generation steps. We propose to trade some of the elegance of the underlying theory for flexibility in the definition of the generative and destruction policies. In particular, we decouple the generation and destruction variances, enabling both transition kernels to be learned as unconstrained Gaussian densities. We show that, when the number of steps is limited, training both generation and destruction processes results in faster convergence and improved sampling quality on various benchmarks. Through a robust ablation study, we investigate the design choices necessary to facilitate stable training. Finally, we show the scalability of our approach through experiments on GAN latent space sampling for conditional image generation.
- Abstract(参考訳): 本稿では,データサンプルにアクセスせずに非正規化密度をサンプリングするように訓練された拡散型生成モデルにおいて,拡散サンプリングにおけるトレーニング可能な破壊プロセスの課題とメリットについて検討する。
拡散サンプリングを基礎となる連続時間モデルへの近似と見なす作業の大部分とは対照的に,拡散モデルを,ごく少数の世代でサンプルを生成するために訓練された離散時間ポリシーとみなす。
我々は, 生成・破壊政策の定義において, フレキシビリティに関する基礎理論の優越性の一部を交換することを提案する。
特に、生成と破壊のばらつきを分離し、両方の遷移核を非制約ガウス密度として学習できるようにする。
ステップ数に制限がある場合、生成プロセスと破壊プロセスの両方をトレーニングすることで、より早く収束し、様々なベンチマークでサンプリング品質が向上することを示す。
頑健なアブレーション研究を通じて,安定したトレーニングを促進するために必要な設計選択について検討する。
最後に,条件付き画像生成のためのGAN潜時空間サンプリング実験により,提案手法のスケーラビリティを示す。
関連論文リスト
- Generative Uncertainty in Diffusion Models [17.06573336804057]
合成試料の生成不確かさを推定するためのベイズ的枠組みを提案する。
提案手法は, 品質の悪いサンプルを効果的に同定し, 既存の不確実性に基づく手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-28T10:56:39Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - Fast Sampling via Discrete Non-Markov Diffusion Models with Predetermined Transition Time [49.598085130313514]
離散非マルコフ拡散モデル(DNDM)を提案する。
これにより、トレーニング不要なサンプリングアルゴリズムにより、関数評価の数を大幅に削減できる。
有限ステップサンプリングから無限ステップサンプリングへの移行について検討し、離散プロセスと連続プロセスのギャップを埋めるための新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z) - Selectively increasing the diversity of GAN-generated samples [8.980453507536017]
本稿では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
本研究では,CERN における ALICE 実験のZero Degree Calorimeter から得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
論文 参考訳(メタデータ) (2022-07-04T16:27:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。