論文の概要: Efficient Controllable Diffusion via Optimal Classifier Guidance
- arxiv url: http://arxiv.org/abs/2505.21666v1
- Date: Tue, 27 May 2025 18:46:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.236236
- Title: Efficient Controllable Diffusion via Optimal Classifier Guidance
- Title(参考訳): 最適分類器誘導による効率的な制御可能拡散
- Authors: Owen Oertell, Shikun Sun, Yiding Chen, Jin Peng Zhou, Zhiyong Wang, Wen Sun,
- Abstract要約: 制御可能な拡散モデルの生成は、与えられた目的関数を最適化するサンプルを生成するためにモデルを操ることを目的としている。
SLCD -- Supervised Learning based Controllable Diffusionを提案する。
- 参考スコア(独自算出の注目度): 16.748525985158278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The controllable generation of diffusion models aims to steer the model to generate samples that optimize some given objective functions. It is desirable for a variety of applications including image generation, molecule generation, and DNA/sequence generation. Reinforcement Learning (RL) based fine-tuning of the base model is a popular approach but it can overfit the reward function while requiring significant resources. We frame controllable generation as a problem of finding a distribution that optimizes a KL-regularized objective function. We present SLCD -- Supervised Learning based Controllable Diffusion, which iteratively generates online data and trains a small classifier to guide the generation of the diffusion model. Similar to the standard classifier-guided diffusion, SLCD's key computation primitive is classification and does not involve any complex concepts from RL or control. Via a reduction to no-regret online learning analysis, we show that under KL divergence, the output from SLCD provably converges to the optimal solution of the KL-regularized objective. Further, we empirically demonstrate that SLCD can generate high quality samples with nearly the same inference time as the base model in both image generation with continuous diffusion and biological sequence generation with discrete diffusion. Our code is available at https://github.com/Owen-Oertell/slcd
- Abstract(参考訳): 制御可能な拡散モデルの生成は、与えられた目的関数を最適化するサンプルを生成するためにモデルを操ることを目的としている。
画像生成、分子生成、DNA/配列生成を含む様々な用途に好適である。
強化学習(Reinforcement Learning, RL)に基づくベースモデルの微調整は、一般的なアプローチであるが、重要なリソースを必要としながら報酬関数を過度に活用することができる。
我々は、KL正規化対象関数を最適化する分布を求める問題として、制御可能な生成をフレーム化する。
SLCD -- Supervised Learning based Controllable Diffusion はオンラインデータを反復的に生成し、拡散モデルの生成を導くために小さな分類器を訓練する。
標準分類器誘導拡散と同様に、SLCDの重要な計算プリミティブは分類であり、RLや制御からの複雑な概念は含まない。
オンライン学習分析の非回帰化により,SLCDからの出力がKL正規化対象の最適解に確実に収束することを示す。
さらに,連続拡散による画像生成と離散拡散による生物学的シーケンス生成の両方において,SLCDがベースモデルとほぼ同じ推論時間で高品質なサンプルを生成することを実証的に実証した。
私たちのコードはhttps://github.com/Owen-Oertell/slcdで利用可能です。
関連論文リスト
- Generative diffusion model with inverse renormalization group flows [0.0]
拡散モデルは、ホワイトノイズによって破損したサンプルをデノナイズすることでデータを生成する。
本稿では,データ分散のマルチスケールな性質を利用する正規化群に基づく拡散モデルを提案する。
タンパク質構造予測および画像生成への応用を通じて,モデルの汎用性を検証する。
論文 参考訳(メタデータ) (2025-01-15T19:00:01Z) - Self-Guidance: Boosting Flow and Diffusion Generation on Their Own [32.91402070439289]
自己誘導(SG)は、低品質サンプルの生成を抑制して画質を向上させる。
我々は、異なるアーキテクチャでテキスト・ツー・イメージとテキスト・ツー・ビデオ生成の実験を行う。
論文 参考訳(メタデータ) (2024-12-08T06:32:27Z) - Tuning Timestep-Distilled Diffusion Model Using Pairwise Sample Optimization [97.35427957922714]
任意の時間ステップ蒸留拡散モデルを直接微調整できるPSOアルゴリズムを提案する。
PSOは、現在の時間ステップ蒸留モデルからサンプリングされた追加の参照画像を導入し、トレーニング画像と参照画像との相対的な近縁率を増大させる。
PSOは、オフラインとオンラインのペアワイズ画像データの両方を用いて、蒸留モデルを直接人間の好ましくない世代に適応させることができることを示す。
論文 参考訳(メタデータ) (2024-10-04T07:05:16Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Adding Conditional Control to Diffusion Models with Reinforcement Learning [68.06591097066811]
拡散モデルは、生成されたサンプルの特性を正確に制御できる強力な生成モデルである。
大規模なデータセットでトレーニングされたこれらの拡散モデルは成功したが、下流の微調整プロセスに新たな制御を導入する必要があることが多い。
本研究では、オフラインデータセットを用いた強化学習(RL)に基づく新しい制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-17T22:00:26Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。