論文の概要: Optimizing Few-Step Generation with Adaptive Matching Distillation
- arxiv url: http://arxiv.org/abs/2602.07345v1
- Date: Sat, 07 Feb 2026 04:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.578901
- Title: Optimizing Few-Step Generation with Adaptive Matching Distillation
- Title(参考訳): アダプティブマッチング蒸留によるFew-Step生成の最適化
- Authors: Lichen Bai, Zikai Zhou, Shitong Shao, Wenliang Zhong, Shuo Yang, Shuo Chen, Bojun Chen, Zeke Xie,
- Abstract要約: 分散マッチング蒸留(DMD)は強力な加速パラダイムであるが、その安定性は禁制区域でしばしば損なわれる。
本稿では,従来の手法を暗黙の戦略として再解釈する統一最適化フレームワークを提案する。
本稿では,アダプティブマッチング蒸留(Adaptive Matching Distillation,AMD)を導入する。
- 参考スコア(独自算出の注目度): 29.161963117692512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution Matching Distillation (DMD) is a powerful acceleration paradigm, yet its stability is often compromised in Forbidden Zone, regions where the real teacher provides unreliable guidance while the fake teacher exerts insufficient repulsive force. In this work, we propose a unified optimization framework that reinterprets prior art as implicit strategies to avoid these corrupted regions. Based on this insight, we introduce Adaptive Matching Distillation (AMD), a self-correcting mechanism that utilizes reward proxies to explicitly detect and escape Forbidden Zones. AMD dynamically prioritizes corrective gradients via structural signal decomposition and introduces Repulsive Landscape Sharpening to enforce steep energy barriers against failure mode collapse. Extensive experiments across image and video generation tasks (e.g., SDXL, Wan2.1) and rigorous benchmarks (e.g., VBench, GenEval) demonstrate that AMD significantly enhances sample fidelity and training robustness. For instance, AMD improves the HPSv2 score on SDXL from 30.64 to 31.25, outperforming state-of-the-art baselines. These findings validate that explicitly rectifying optimization trajectories within Forbidden Zones is essential for pushing the performance ceiling of few-step generative models.
- Abstract(参考訳): 分散マッチング蒸留(DMD)は強力な加速パラダイムであるが、実際の教師が信頼できない指導を行う地域では、その安定性が損なわれ、偽の教師は反発力に乏しい。
本研究では,従来の手法を暗黙の戦略として再解釈する統一最適化フレームワークを提案する。
そこで本研究では,適応マッチング蒸留(Adaptive Matching Distillation,AMD)を導入する。
AMDは、構造信号分解による補正勾配を動的に優先順位付けし、障害モードの崩壊に対して急激なエネルギー障壁を強制するために、Repulsive Landscape Sharpeningを導入している。
画像およびビデオ生成タスク(例:SDXL、Wan2.1)と厳密なベンチマーク(例:VBench、GenEval)にわたる広範な実験により、AMDはサンプルの忠実度とトレーニングの堅牢性を大幅に向上させることが示された。
例えば、AMDはSDXLのHPSv2スコアを30.64から31.25に改善し、最先端のベースラインを上回っている。
これらの結果は, 数段階生成モデルの性能天井を押し上げるためには, 禁制区域内の最適化軌道を明示的に修正することが重要であることを証明した。
関連論文リスト
- Target-Balanced Score Distillation [6.815973656627764]
SDS(Score Distillation Sampling)は、事前訓練された2次元テキスト-画像拡散モデルから先行データを蒸留することで、3Dアセット生成を可能にする。
この問題を緩和するために、最近の変種にはネガティブなプロンプトが組み込まれている。
これらの手法は、限られたテクスチャ最適化や、形状歪みを伴う重要なテクスチャゲインといった重要なトレードオフに直面している。
論文 参考訳(メタデータ) (2025-11-12T15:53:01Z) - Boosting Fidelity for Pre-Trained-Diffusion-Based Low-Light Image Enhancement via Condition Refinement [63.54516423266521]
事前学習拡散ベース(PTDB)法は、しばしばコンテンツ忠実さを犠牲にして知覚的リアリズムを高める。
本稿では,事前学習した拡散モデルにおける条件付けのための新しい最適化手法を提案する。
我々のアプローチはプラグアンドプレイであり、より効率的な制御を提供するために既存の拡散ネットワークにシームレスに統合される。
論文 参考訳(メタデータ) (2025-10-20T02:40:06Z) - Adversarial Distribution Matching for Diffusion Distillation Towards Efficient Image and Video Synthesis [65.77083310980896]
本稿では, 実測値と偽測値の間に潜時予測を整列させる適応分布マッチング (ADM) を提案する。
提案手法は,DMD2と比較してSDXLの1ステップ性能に優れ,GPU時間が少ない。
SD3-Medium, SD3.5-Large, CogVideoX に多段階の ADM 蒸留を適用した実験では, 画像と映像の効率的な合成に向けた新しいベンチマークが設定された。
論文 参考訳(メタデータ) (2025-07-24T16:45:05Z) - Restoration Score Distillation: From Corrupted Diffusion Pretraining to One-Step High-Quality Generation [82.39763984380625]
Score Distillation (DSD) の原理的一般化である textitRestoration Score Distillation (RSD) を提案する。
RSDは、ぼやけた画像、不完全画像、低解像度画像など、広範囲の汚職タイプに対応している。
自然と科学の両方のデータセットの様々な復元作業において、教師モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-19T17:21:03Z) - Supercharged One-step Text-to-Image Diffusion Models with Negative Prompts [19.609393551644562]
負のプロンプトを1段階拡散モデルに統合する効率的な方法である textbfNegative-textbfAway textbfSteer textbfAttention (NASA) を導入する。
NASAは、望ましくない視覚特性を抑えるためにクロスアテンション機構を活用することで、中間表現空間内で運用している。
論文 参考訳(メタデータ) (2024-12-03T18:56:32Z) - Adaptive Gradient Clipping for Robust Federated Learning [8.268485501864939]
本稿では,適応型クリッピング戦略である適応ロバストクリッピング(ARC)を提案し,入力勾配に基づいて動的にクリッピング閾値を調整する。
ARCは、特に高度に異質で対向的な設定において、ロバスト性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-23T11:00:31Z) - Improving Adversarial Transferability via Intermediate-level
Perturbation Decay [79.07074710460012]
我々は,一段階の最適化で敵の例を再現する新しい中間レベル手法を開発した。
実験結果から, 種々の犠牲者モデルに対する攻撃において, 最先端技術よりも大きな差が認められた。
論文 参考訳(メタデータ) (2023-04-26T09:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。