論文の概要: Efficient Controllable Diffusion via Optimal Classifier Guidance
- arxiv url: http://arxiv.org/abs/2505.21666v1
- Date: Tue, 27 May 2025 18:46:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.236236
- Title: Efficient Controllable Diffusion via Optimal Classifier Guidance
- Title(参考訳): 最適分類器誘導による効率的な制御可能拡散
- Authors: Owen Oertell, Shikun Sun, Yiding Chen, Jin Peng Zhou, Zhiyong Wang, Wen Sun,
- Abstract要約: 制御可能な拡散モデルの生成は、与えられた目的関数を最適化するサンプルを生成するためにモデルを操ることを目的としている。
SLCD -- Supervised Learning based Controllable Diffusionを提案する。
- 参考スコア(独自算出の注目度): 16.748525985158278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The controllable generation of diffusion models aims to steer the model to generate samples that optimize some given objective functions. It is desirable for a variety of applications including image generation, molecule generation, and DNA/sequence generation. Reinforcement Learning (RL) based fine-tuning of the base model is a popular approach but it can overfit the reward function while requiring significant resources. We frame controllable generation as a problem of finding a distribution that optimizes a KL-regularized objective function. We present SLCD -- Supervised Learning based Controllable Diffusion, which iteratively generates online data and trains a small classifier to guide the generation of the diffusion model. Similar to the standard classifier-guided diffusion, SLCD's key computation primitive is classification and does not involve any complex concepts from RL or control. Via a reduction to no-regret online learning analysis, we show that under KL divergence, the output from SLCD provably converges to the optimal solution of the KL-regularized objective. Further, we empirically demonstrate that SLCD can generate high quality samples with nearly the same inference time as the base model in both image generation with continuous diffusion and biological sequence generation with discrete diffusion. Our code is available at https://github.com/Owen-Oertell/slcd
- Abstract(参考訳): 制御可能な拡散モデルの生成は、与えられた目的関数を最適化するサンプルを生成するためにモデルを操ることを目的としている。
画像生成、分子生成、DNA/配列生成を含む様々な用途に好適である。
強化学習(Reinforcement Learning, RL)に基づくベースモデルの微調整は、一般的なアプローチであるが、重要なリソースを必要としながら報酬関数を過度に活用することができる。
我々は、KL正規化対象関数を最適化する分布を求める問題として、制御可能な生成をフレーム化する。
SLCD -- Supervised Learning based Controllable Diffusion はオンラインデータを反復的に生成し、拡散モデルの生成を導くために小さな分類器を訓練する。
標準分類器誘導拡散と同様に、SLCDの重要な計算プリミティブは分類であり、RLや制御からの複雑な概念は含まない。
オンライン学習分析の非回帰化により,SLCDからの出力がKL正規化対象の最適解に確実に収束することを示す。
さらに,連続拡散による画像生成と離散拡散による生物学的シーケンス生成の両方において,SLCDがベースモデルとほぼ同じ推論時間で高品質なサンプルを生成することを実証的に実証した。
私たちのコードはhttps://github.com/Owen-Oertell/slcdで利用可能です。
関連論文リスト
- Generative diffusion model with inverse renormalization group flows [0.0]
拡散モデルは、ホワイトノイズによって破損したサンプルをデノナイズすることでデータを生成する。
本稿では,データ分散のマルチスケールな性質を利用する正規化群に基づく拡散モデルを提案する。
タンパク質構造予測および画像生成への応用を通じて,モデルの汎用性を検証する。
論文 参考訳(メタデータ) (2025-01-15T19:00:01Z) - Self-Guidance: Boosting Flow and Diffusion Generation on Their Own [32.91402070439289]
自己誘導(SG)は、低品質サンプルの生成を抑制して画質を向上させる。
我々は、異なるアーキテクチャでテキスト・ツー・イメージとテキスト・ツー・ビデオ生成の実験を行う。
論文 参考訳(メタデータ) (2024-12-08T06:32:27Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。