論文の概要: Adding Additional Control to One-Step Diffusion with Joint Distribution Matching
- arxiv url: http://arxiv.org/abs/2503.06652v1
- Date: Sun, 09 Mar 2025 15:06:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:48:39.583378
- Title: Adding Additional Control to One-Step Diffusion with Joint Distribution Matching
- Title(参考訳): 関節分布整合を伴うワンステップ拡散への追加制御の追加
- Authors: Yihong Luo, Tianyang Hu, Yifan Song, Jiacheng Sun, Zhenguo Li, Jing Tang,
- Abstract要約: JDMは、画像-条件関節分布間の逆KL分散を最小化する新しいアプローチである。
トラクタブルな上限を導出することにより、JDMは条件学習から忠実度学習を分離する。
この非対称蒸留方式により,一段階の生徒が教師モデルに未知の制御を処理できるようになる。
- 参考スコア(独自算出の注目度): 58.37264951734603
- License:
- Abstract: While diffusion distillation has enabled one-step generation through methods like Variational Score Distillation, adapting distilled models to emerging new controls -- such as novel structural constraints or latest user preferences -- remains challenging. Conventional approaches typically requires modifying the base diffusion model and redistilling it -- a process that is both computationally intensive and time-consuming. To address these challenges, we introduce Joint Distribution Matching (JDM), a novel approach that minimizes the reverse KL divergence between image-condition joint distributions. By deriving a tractable upper bound, JDM decouples fidelity learning from condition learning. This asymmetric distillation scheme enables our one-step student to handle controls unknown to the teacher model and facilitates improved classifier-free guidance (CFG) usage and seamless integration of human feedback learning (HFL). Experimental results demonstrate that JDM surpasses baseline methods such as multi-step ControlNet by mere one-step in most cases, while achieving state-of-the-art performance in one-step text-to-image synthesis through improved usage of CFG or HFL integration.
- Abstract(参考訳): 拡散蒸留は、変分スコア蒸留のような方法でワンステップ生成を可能にしているが、新しい構造制約や最新のユーザー嗜好といった新しいコントロールに蒸留モデルを適応させることは、依然として困難である。
従来のアプローチでは、通常、ベース拡散モデルを変更して再コンパイルする必要があります -- 計算集約的かつ時間を要するプロセスです。
これらの課題に対処するために,画像条件の関節分布間の逆KL分散を最小限に抑える新しいアプローチであるJDMを導入する。
トラクタブルな上限を導出することにより、JDMは条件学習から忠実度学習を分離する。
この非対称蒸留方式により,一段階の学生が教師モデルに未知の制御を扱えるようになり,CFGの使用率の向上とヒューマンフィードバック学習(HFL)のシームレスな統合が容易になった。
実験の結果,JDMはCFGやHFLの統合を改良し,一段階のテキスト・ツー・イメージ合成における最先端性能を実現しつつ,単純な一段階の制御ネットのようなベースライン手法を超越していることがわかった。
関連論文リスト
- Sequential Controlled Langevin Diffusions [80.93988625183485]
2つの一般的な方法として,(1) 所定のマルコフ連鎖と再サンプリング工程を通した連続モンテカルロ (SMC) と,(2) 学習された動的輸送を用いる拡散に基づくサンプリング手法が最近開発された。
本稿では,SMC と拡散型サンプリング器を連続的に観察し,経路空間の測度を考慮し,SMC と拡散型サンプリング器を組み合わせるための基本的枠組みを提案する。
これは、従来の拡散のトレーニング予算の10%しか使用しない場合が多いが、これらの手法の利点を活用でき、複数のベンチマーク問題の性能向上に資するSCLD(Sequential Controlled Langevin Diffusion)サンプリング手法の成果である。
論文 参考訳(メタデータ) (2024-12-10T00:47:10Z) - SNOOPI: Supercharged One-step Diffusion Distillation with Proper Guidance [12.973835034100428]
本稿では, SNOOPIについて述べる。SNOOPIは, トレーニングと推論の双方において, ワンステップ拡散モデルのガイダンスを高めるために設計された新しいフレームワークである。
両教師モデルの指導尺度を変化させることで、出力分布を拡大し、より堅牢なVSD損失が発生し、SBは競争性能を維持しつつ、多様なバックボーンを効果的に実行できる。
第2に、負のプロンプトを1段階拡散モデルに統合して、生成した画像中の望ましくない要素を抑圧する、負のアウェイステア注意(Negative-Away Steer Attention, NASA)と呼ばれるトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2024-12-03T18:56:32Z) - Joint Diffusion models in Continual Learning [4.013156524547073]
共同拡散モデルに基づく生成的リハーサルを用いた連続学習法であるJDCLを紹介する。
生成的再生に基づく連続学習手法は、生成的モデルからサンプリングされた新しいデータとリハーサルデータを組み合わせたモデルの再学習によってこの問題を緩和しようとする。
このような共有パラメトリゼーションと知識蒸留技術を組み合わせることで、破滅的な忘れをせずに新しいタスクに安定した適応ができることを示す。
論文 参考訳(メタデータ) (2024-11-12T22:35:44Z) - Multi-Granularity Semantic Revision for Large Language Model Distillation [66.03746866578274]
LLM蒸留における多粒性セマンティックリビジョン法を提案する。
シーケンスレベルでは、シーケンス修正と再生戦略を提案する。
トークンレベルでは、蒸留目的関数として、Kulback-Leibler損失を補正する分布適応クリッピングを設計する。
スパンレベルでは、シーケンスのスパン前処理を利用して、スパン内の確率相関を計算し、教師と学生の確率相関を一貫性に制約する。
論文 参考訳(メタデータ) (2024-07-14T03:51:49Z) - ScoreFusion: fusing score-based generative models via Kullback-Leibler barycenters [8.08976346461518]
ScoreFusionは,複数の事前学習拡散モデルを融合させる理論的な基礎的手法である。
我々の出発点は、KL の感覚において最適なパラメトリッククラスであることが証明された補助集団の KL バリセンタの族を考えることである。
学習問題を点数拡散におけるスコアマッチングとして再キャストすることにより、最適なKLバリセンター重みを計算できるトラクタブルな方法を得る。
論文 参考訳(メタデータ) (2024-06-28T03:02:25Z) - Adv-KD: Adversarial Knowledge Distillation for Faster Diffusion Sampling [2.91204440475204]
拡散確率モデル(DPM)は、深層生成モデルの強力なクラスとして登場した。
それらは、サンプル生成中にシーケンシャルなデノイングステップに依存している。
モデルアーキテクチャに直接位相を分解する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:19:44Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。