論文の概要: DiCache: Let Diffusion Model Determine Its Own Cache
- arxiv url: http://arxiv.org/abs/2508.17356v2
- Date: Thu, 02 Oct 2025 14:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.032831
- Title: DiCache: Let Diffusion Model Determine Its Own Cache
- Title(参考訳): DiCache: 拡散モデルが独自のキャッシュを決定する
- Authors: Jiazi Bu, Pengyang Ling, Yujie Zhou, Yibin Wang, Yuhang Zang, Dahua Lin, Jiaqi Wang,
- Abstract要約: DiCacheは、実行時に拡散モデルを加速するためのトレーニング不要のアダプティブキャッシュ戦略である。
Online Probe Profiling Schemeは浅層オンラインプローブを利用して,キャッシュエラーのオンザフライインジケータをリアルタイムで取得する。
Dynamic Cache Trajectory Alignmentは、マルチステップの履歴キャッシュから出力されるディープ層の特徴を近似する。
- 参考スコア(独自算出の注目度): 62.954717254728166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the rapid development of acceleration techniques for diffusion models, especially caching-based acceleration methods. These studies seek to answer two fundamental questions: "When to cache" and "How to use cache", typically relying on predefined empirical laws or dataset-level priors to determine caching timings and adopting handcrafted rules for multi-step cache utilization. However, given the highly dynamic nature of the diffusion process, they often exhibit limited generalizability and fail to cope with diverse samples. In this paper, a strong sample-specific correlation is revealed between the variation patterns of the shallow-layer feature differences in the diffusion model and those of deep-layer features. Moreover, we have observed that the features from different model layers form similar trajectories. Based on these observations, we present DiCache, a novel training-free adaptive caching strategy for accelerating diffusion models at runtime, answering both when and how to cache within a unified framework. Specifically, DiCache is composed of two principal components: (1) Online Probe Profiling Scheme leverages a shallow-layer online probe to obtain an on-the-fly indicator for the caching error in real time, enabling the model to dynamically customize the caching schedule for each sample. (2) Dynamic Cache Trajectory Alignment adaptively approximates the deep-layer feature output from multi-step historical caches based on the shallow-layer feature trajectory, facilitating higher visual quality. Extensive experiments validate DiCache's capability in achieving higher efficiency and improved fidelity over state-of-the-art approaches on various leading diffusion models including WAN 2.1, HunyuanVideo and Flux.
- Abstract(参考訳): 近年,拡散モデル,特にキャッシングに基づく加速法の開発が急速に進んでいる。
これらの研究は、“キャッシュのタイミング”と“キャッシュの使い方”という2つの基本的な疑問に答えようとしている。
しかし、拡散過程の非常にダイナミックな性質を考えると、それらはしばしば限定的な一般化性を示し、多様なサンプルに対処できない。
本稿では, 拡散モデルにおける浅層特徴差の変動パターンと深層特徴の変動パターンとの間に, 試料比の強い相関関係を明らかにする。
さらに,異なるモデル層の特徴が類似した軌道を形成することも確認した。
これらの観測に基づいて、我々は、実行時に拡散モデルを加速するための新しいトレーニングフリー適応キャッシュ戦略であるDiCacheを紹介し、いつ、どのように統合されたフレームワーク内でキャッシュするかを問う。
オンラインプローブプロファイリングスキームは浅層オンラインプローブを利用してキャッシュエラーのオンザフライインジケータをリアルタイムで取得し、各サンプルのキャッシュスケジュールを動的にカスタマイズする。
2)動的キャッシュトラジェクトリアライメントは,浅層機能トラジェクトリに基づいて複数ステップの履歴キャッシュから出力されるディープレイヤ機能を適応的に近似し,視覚的品質を向上させる。
広範にわたる実験により、WAN 2.1、HunyuanVideo、Fluxなど、様々な主要な拡散モデルに対する最先端のアプローチに対するDiCacheの高効率化と忠実性の向上が検証された。
関連論文リスト
- MixCache: Mixture-of-Cache for Video Diffusion Transformer Acceleration [15.22288174114487]
キャッシングは、DiTモデルで広く採用されている最適化手法である。
効率的なビデオDiT推論のためのトレーニング不要なキャッシュベースのフレームワークであるMixCacheを提案する。
論文 参考訳(メタデータ) (2025-08-18T07:49:33Z) - MagCache: Fast Video Generation with Magnitude-Aware Cache [91.51242917160373]
我々は、様々なモデルとプロンプトで観察される統一等級法則という、新しく頑健な発見を導入する。
我々は、エラーモデリング機構と適応キャッシュ戦略を用いて、重要でないタイムステップを適応的にスキップするMagnitude-aware Cache(MagCache)を導入する。
実験の結果、MagCacheはOpen-SoraとWan 2.1でそれぞれ2.1倍と2.68倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2025-06-10T17:59:02Z) - Model Reveals What to Cache: Profiling-Based Feature Reuse for Video Diffusion Models [41.11005178050448]
ProfilingDiTは、フォアグラウンドとバックグラウンドに焦点を当てたブロックを明示的にアンタングルする、新しいアダプティブキャッシュ戦略である。
当社のフレームワークは,総合的な品質指標間の視覚的忠実度を維持しながら,大幅な加速を実現している。
論文 参考訳(メタデータ) (2025-04-04T03:30:15Z) - Timestep Embedding Tells: It's Time to Cache for Video Diffusion Model [55.64316746098431]
Timestep Embedding Aware Cache (TeaCache)は、タイムステップ間のモデルアウトプットの変動を推定し、活用する、トレーニング不要なキャッシュアプローチである。
TeaCacheはOpen-Sora-Plan上で最大4.41倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-11-28T12:50:05Z) - FasterCache: Training-Free Video Diffusion Model Acceleration with High Quality [58.80996741843102]
FasterCacheは、高品質な生成を伴うビデオ拡散モデルの推論を高速化するために設計された、トレーニング不要の戦略である。
我々は、FasterCacheがビデオの質をベースラインと同等に保ちながら、ビデオ生成を著しく加速できることを示した。
論文 参考訳(メタデータ) (2024-10-25T07:24:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。