論文の概要: Diff-ES: Stage-wise Structural Diffusion Pruning via Evolutionary Search
- arxiv url: http://arxiv.org/abs/2603.05105v1
- Date: Thu, 05 Mar 2026 12:18:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.219005
- Title: Diff-ES: Stage-wise Structural Diffusion Pruning via Evolutionary Search
- Title(参考訳): Diff-ES:進化的探索による段階的構造拡散解析
- Authors: Zongfang Liu, Shengkun Tang, Zongliang Wu, Xin Yuan, Zhiqiang Shen,
- Abstract要約: textbfDiff-ESは、textbfEvolutionary textbfSearchを介して、段階的に構造化されたtextbfDiff-usion プルーニングフレームワークである。
筆者らのフレームワークは, 奥行きと幅幅を含む拡散モデルに対して, 既存の構造化プルーニング手法と自然に統合されている。
DiTとSDXLの実験により、Diff-ESは連続的にウォールクロックの高速化を実現し、生成品質の低下を最小限に抑えていることが示された。
- 参考スコア(独自算出の注目度): 40.67449277026597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have achieved remarkable success in high-fidelity image generation but remain computationally demanding due to their multi-step denoising process and large model sizes. Although prior work improves efficiency either by reducing sampling steps or by compressing model parameters, existing structured pruning approaches still struggle to balance real acceleration and image quality preservation. In particular, prior methods such as MosaicDiff rely on heuristic, manually tuned stage-wise sparsity schedules and stitch multiple independently pruned models during inference, which increases memory overhead. However, the importance of diffusion steps is highly non-uniform and model-dependent. As a result, schedules derived from simple heuristics or empirical observations often fail to generalize and may lead to suboptimal performance. To this end, we introduce \textbf{Diff-ES}, a stage-wise structural \textbf{Diff}usion pruning framework via \textbf{E}volutionary \textbf{S}earch, which optimizes the stage-wise sparsity schedule and executes it through memory-efficient weight routing without model duplication. Diff-ES divides the diffusion trajectory into multiple stages, automatically discovers an optimal stage-wise sparsity schedule via evolutionary search, and activates stage-conditioned weights dynamically without duplicating model parameters. Our framework naturally integrates with existing structured pruning methods for diffusion models including depth and width pruning. Extensive experiments on DiT and SDXL demonstrate that Diff-ES consistently achieves wall-clock speedups while incurring minimal degradation in generation quality, establishing state-of-the-art performance for structured diffusion model pruning.
- Abstract(参考訳): 拡散モデルは高忠実度画像生成において顕著な成功を収めてきたが、多段階のデノナイジングプロセスと大きなモデルサイズのために計算的に要求される。
事前の作業はサンプリングステップの削減やモデルパラメータの圧縮によって効率が向上するが、既存の構造化プルーニングアプローチでは、実際の加速と画質の保存のバランスがとれていない。
特に、MosaicDiffのような以前の手法は、手動でステージワイドの間隔スケジュールを調整し、推論中に複数の独立したプルーンドモデルを縫い合わせることで、メモリオーバーヘッドを増大させる。
しかし、拡散ステップの重要性は非常に一様でなく、モデルに依存している。
結果として、単純なヒューリスティックスや経験的な観察から導かれるスケジュールは一般化に失敗し、最適以下のパフォーマンスにつながる可能性がある。
この目的のために、段階的に構造的な \textbf{Diff}usion pruning framework である \textbf{E}volutionary \textbf{S}earch を導入する。
Diff-ESは拡散軌道を複数の段階に分割し、進化探索により最適な段階的間隔スケジュールを自動的に発見し、モデルパラメータを重複することなく動的にステージ条件付き重みを活性化する。
筆者らのフレームワークは, 奥行きと幅幅を含む拡散モデルに対して, 既存の構造化プルーニング手法と自然に統合されている。
DiT と SDXL の大規模実験により,Diff-ES は生成品質の低下を最小限に抑えながら連続的にウォールクロックの高速化を実現し,構造化拡散モデルプルーニングの最先端性能を確立した。
関連論文リスト
- Analyzing and Improving Fast Sampling of Text-to-Image Diffusion Models [32.70019265781621]
テキストと画像の拡散モデルは前例のない成功を収めたが、限られたサンプリング予算の下で高品質な画像を作成するのに苦戦している。
本研究では,サンプリング軌道に沿った均一な幾何変動を確実にするスケジューリング戦略として,一定全回転スケジュール(TORS)を提案する。
TORSは以前のトレーニング不要加速法より優れており、Flux.1-DevとStable Diffusion 3.5の10段のサンプリングステップで高品質な画像を生成する。
論文 参考訳(メタデータ) (2026-02-28T18:09:44Z) - Which Layer Causes Distribution Deviation? Entropy-Guided Adaptive Pruning for Diffusion and Flow Models [77.55829017952728]
EntPrunerは、拡散およびフローモデルのためのエントロピー誘導自動プログレッシブプルーニングフレームワークである。
DiTモデルとSiTモデルの実験はEntPrunerの有効性を示し、最大2.22$times$推論スピードアップを達成する。
論文 参考訳(メタデータ) (2025-11-26T07:20:48Z) - OBS-Diff: Accurate Pruning For Diffusion Models in One-Shot [4.990334603434127]
OBS-Diffは、大規模テキスト・画像拡散モデルの正確かつトレーニング不要な圧縮を可能にする、新しいワンショットプルーニングフレームワークである。
広汎な実験により、OBS-Diffは拡散モデルに対する最先端のワンショットプルーニングを実現し、視覚的品質の最小限の劣化を伴う推論加速を実現する。
論文 参考訳(メタデータ) (2025-10-08T08:19:15Z) - Hybrid Autoregressive-Diffusion Model for Real-Time Sign Language Production [0.0]
我々は手話生成のための自己回帰モデルと拡散モデルを組み合わせたハイブリッドアプローチを開発する。
微粒な体の動きを捉えるため,異なる音節から細かな特徴を別々に抽出するマルチスケール・ポース表現モジュールを設計した。
ポーズ生成過程を動的に導くために,共同レベルの信頼度スコアを利用する信頼度対応型因果注意機構を導入する。
論文 参考訳(メタデータ) (2025-07-12T01:34:50Z) - Improving Progressive Generation with Decomposable Flow Matching [50.63174319509629]
Decomposable Flow Matching (DFM)は、ビジュアルメディアのプログレッシブな生成のためのシンプルで効果的なフレームワークである。
Imagenet-1k 512pxでは、DFMはベースアーキテクチャよりも35.2%改善され、ベースラインは26.4%向上した。
論文 参考訳(メタデータ) (2025-06-24T17:58:02Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Effortless Efficiency: Low-Cost Pruning of Diffusion Models [29.821803522137913]
本稿では,拡散モデルに対するモデルに依存しない構造解析フレームワークを提案する。
最終復号化潜水剤の品質を保った効率的な刈り出しを確保するため, 拡散過程全体にわたる新しいエンドツーエンドの刈り出し目標を設計する。
最新のU-Net拡散モデル SDXL と拡散変換器 (FLUX) による結果から,本手法は性能劣化を最小限に抑え,20%のパラメータを効果的に生成できることを示した。
論文 参考訳(メタデータ) (2024-12-03T21:37:50Z) - Memory-Efficient Fine-Tuning for Quantized Diffusion Model [12.875837358532422]
本稿では,量子化拡散モデルのためのメモリ効率の良い微調整手法であるTuneQDMを紹介する。
提案手法は, 単目的/多目的の両方の世代において, ベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-01-09T03:42:08Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Structural Pruning for Diffusion Models [65.02607075556742]
Diff-Pruningは、既存のものから軽量拡散モデルの学習に適した効率的な圧縮手法である。
複数のデータセットにまたがって実施した経験的評価は,提案手法の2つの利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-18T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。