論文の概要: SpecDiff: Accelerating Diffusion Model Inference with Self-Speculation
- arxiv url: http://arxiv.org/abs/2509.13848v1
- Date: Wed, 17 Sep 2025 09:24:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.800617
- Title: SpecDiff: Accelerating Diffusion Model Inference with Self-Speculation
- Title(参考訳): SpecDiff:自己スペキュレーションによる拡散モデル推論の高速化
- Authors: Jiayi Pan, Jiaming Xu, Yongkang Zhou, Guohao Dai,
- Abstract要約: 拡散モデル推論のためのトレーニング不要なマルチレベル特徴キャッシング戦略である textitSpecDiff を提案する。
textitSpecDiffは、特徴重要度スコアの違いを活用してトークンを分類し、マルチレベルの特徴計算戦略を導入する。
textitSpecDiffは、NVIDIA A800-80GB GPUのRFlowと比較して、安定拡散3、3.5、FLUXの無視できる品質損失で平均2.80回、2.74回、3.17回のスピードアップを達成する。
- 参考スコア(独自算出の注目度): 13.700117460027164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature caching has recently emerged as a promising method for diffusion model acceleration. It effectively alleviates the inefficiency problem caused by high computational requirements by caching similar features in the inference process of the diffusion model. In this paper, we analyze existing feature caching methods from the perspective of information utilization, and point out that relying solely on historical information will lead to constrained accuracy and speed performance. And we propose a novel paradigm that introduces future information via self-speculation based on the information similarity at the same time step across different iteration times. Based on this paradigm, we present \textit{SpecDiff}, a training-free multi-level feature caching strategy including a cached feature selection algorithm and a multi-level feature classification algorithm. (1) Feature selection algorithm based on self-speculative information. \textit{SpecDiff} determines a dynamic importance score for each token based on self-speculative information and historical information, and performs cached feature selection through the importance score. (2) Multi-level feature classification algorithm based on feature importance scores. \textit{SpecDiff} classifies tokens by leveraging the differences in feature importance scores and introduces a multi-level feature calculation strategy. Extensive experiments show that \textit{SpecDiff} achieves average 2.80 \times, 2.74 \times , and 3.17\times speedup with negligible quality loss in Stable Diffusion 3, 3.5, and FLUX compared to RFlow on NVIDIA A800-80GB GPU. By merging speculative and historical information, \textit{SpecDiff} overcomes the speedup-accuracy trade-off bottleneck, pushing the Pareto frontier of speedup and accuracy in the efficient diffusion model inference.
- Abstract(参考訳): 拡散モデル加速のための有望な方法として、最近フィーチャーキャッシングが登場した。
拡散モデルの推論プロセスにおいて、同様の特徴をキャッシュすることで、高い計算要求に起因する効率の低下を効果的に軽減する。
本稿では,情報利用の観点から既存の特徴キャッシング手法を解析し,過去の情報のみに頼れば,精度や性能の制約が生じることを指摘する。
そこで本研究では,異なる反復時間にまたがる情報類似度に基づいて,自己記述による将来の情報導入を行う新しいパラダイムを提案する。
このパラダイムに基づいて、キャッシュされた特徴選択アルゴリズムとマルチレベル特徴分類アルゴリズムを含むトレーニング不要なマルチレベル特徴キャッシング戦略である「textit{SpecDiff}」を提案する。
1)自己推測情報に基づく特徴選択アルゴリズム。
\textit{SpecDiff} は自己推測情報と履歴情報に基づいてトークンごとの動的重要度スコアを決定し、重要度スコアを通じてキャッシュされた特徴選択を行う。
2)特徴重要度スコアに基づく多段階特徴分類アルゴリズム
\textit{SpecDiff}は、特徴重要度スコアの違いを活用してトークンを分類し、マルチレベルの特徴計算戦略を導入する。
大規模な実験では、NVIDIA A800-80GB GPUのRFlowと比較して、安定拡散3,3.5,FLUXにおいて、平均2.80 \times、2.74 \times、3.17\timesのスピードアップが無視できる品質損失を達成している。
投機的および歴史的情報をマージすることで、 \textit{SpecDiff} はスピードアップ・精度のトレードオフボトルネックを克服し、効率的な拡散モデル推論におけるスピードアップと精度のパレートフロンティアを押し上げる。
関連論文リスト
- DiCache: Let Diffusion Model Determine Its Own Cache [63.73224201922458]
実行時に拡散モデルを高速化するためのトレーニング不要な適応型キャッシュ戦略であるDiCacheを提案する。
Online Probe Profiling Schemeは、浅層オンラインプローブを利用して、キャッシュエラーに対する安定した事前をリアルタイムで取得する。
Dynamic Cache Trajectory Alignmentは、浅層プローブ機能トラジェクトリに基づくマルチステップキャッシュを組み合わせて、現在の機能をよりよく近似する。
論文 参考訳(メタデータ) (2025-08-24T13:30:00Z) - Model Reveals What to Cache: Profiling-Based Feature Reuse for Video Diffusion Models [41.11005178050448]
ProfilingDiTは、フォアグラウンドとバックグラウンドに焦点を当てたブロックを明示的にアンタングルする、新しいアダプティブキャッシュ戦略である。
当社のフレームワークは,総合的な品質指標間の視覚的忠実度を維持しながら,大幅な加速を実現している。
論文 参考訳(メタデータ) (2025-04-04T03:30:15Z) - Retain, Blend, and Exchange: A Quality-aware Spatial-Stereo Fusion Approach for Event Stream Recognition [57.74076383449153]
本稿では,差分融合によるイベントストリームに基づくパターン認識のための新しいデュアルストリームフレームワークEFV++を提案する。
イベントイメージとイベントボクセルという2つの共通のイベント表現を同時にモデル化する。
Bullying10kデータセットで新しい最先端のパフォーマンス、すなわち90.51%$を達成し、2位を+2.21%$で上回る。
論文 参考訳(メタデータ) (2024-06-27T02:32:46Z) - Learning-to-Cache: Accelerating Diffusion Transformer via Layer Caching [56.286064975443026]
拡散変圧器内の多数の層をキャッシュ機構で計算することで、モデルパラメータを更新しなくても容易に除去できる。
本稿では,拡散変圧器の動的手法でキャッシングを学習するL2C(Learningto-Cache)を提案する。
実験の結果,L2C は DDIM や DPM-r など,キャッシュベースの従来の手法と同等の推論速度で性能を向上することがわかった。
論文 参考訳(メタデータ) (2024-06-03T18:49:57Z) - Powershap: A Power-full Shapley Feature Selection Method [1.795703326329855]
Powershapは、新しいラッパーの特徴選択方法である。
統計的仮説テストとパワー計算をShapley値と組み合わせて、迅速かつ直感的な特徴選択に活用する。
powerhap はプラグイン・アンド・プレイのオープンソース sklearn コンポーネントとして実装されている。
論文 参考訳(メタデータ) (2022-06-16T18:06:50Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。