論文の概要: Flow caching for autoregressive video generation
- arxiv url: http://arxiv.org/abs/2602.10825v1
- Date: Wed, 11 Feb 2026 13:11:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.919232
- Title: Flow caching for autoregressive video generation
- Title(参考訳): 自己回帰ビデオ生成のためのフローキャッシュ
- Authors: Yuexiao Ma, Xuzhe Zheng, Jing Xu, Xiwei Xu, Feng Ling, Xiawu Zheng, Huafeng Kuang, Huixia Li, Xing Wang, Xuefeng Xiao, Fei Chao, Rongrong Ji,
- Abstract要約: 自動回帰ビデオ生成に特化して設計された,最初のキャッシュフレームワークであるFlowCacheを紹介する。
本手法は,MAGI-1では2.38倍,SkyReels-V2では6.7倍,品質劣化は無視できない。
- 参考スコア(独自算出の注目度): 72.10021661412364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoregressive models, often built on Transformer architectures, represent a powerful paradigm for generating ultra-long videos by synthesizing content in sequential chunks. However, this sequential generation process is notoriously slow. While caching strategies have proven effective for accelerating traditional video diffusion models, existing methods assume uniform denoising across all frames-an assumption that breaks down in autoregressive models where different video chunks exhibit varying similarity patterns at identical timesteps. In this paper, we present FlowCache, the first caching framework specifically designed for autoregressive video generation. Our key insight is that each video chunk should maintain independent caching policies, allowing fine-grained control over which chunks require recomputation at each timestep. We introduce a chunkwise caching strategy that dynamically adapts to the unique denoising characteristics of each chunk, complemented by a joint importance-redundancy optimized KV cache compression mechanism that maintains fixed memory bounds while preserving generation quality. Our method achieves remarkable speedups of 2.38 times on MAGI-1 and 6.7 times on SkyReels-V2, with negligible quality degradation (VBench: 0.87 increase and 0.79 decrease respectively). These results demonstrate that FlowCache successfully unlocks the potential of autoregressive models for real-time, ultra-long video generation-establishing a new benchmark for efficient video synthesis at scale. The code is available at https://github.com/mikeallen39/FlowCache.
- Abstract(参考訳): トランスフォーマーアーキテクチャ上に構築される自動回帰モデルは、コンテントを逐次チャンクで合成することで超長大なビデオを生成するための強力なパラダイムである。
しかし、このシーケンシャルな生成プロセスは、非常に遅い。
キャッシュ戦略は従来のビデオ拡散モデルの高速化に有効であることが証明されているが、既存の手法では、異なるビデオチャンクが同一の時間ステップで異なる類似パターンを示す自己回帰モデルで分解される仮定として、すべてのフレームを均一に飾ることを想定している。
本稿では,自動回帰ビデオ生成に特化して設計された,最初のキャッシュフレームワークであるFlowCacheを紹介する。
キーとなる洞察は、各ビデオチャンクが独立キャッシングポリシーを維持し、各タイムステップでどのチャンクが再計算を必要とするかをきめ細かな制御を可能にすることです。
本稿では,各チャンクのユニークな復調特性に動的に適応するチャンクワイズキャッシュ方式を提案する。
本手法は,SkyReels-V2ではMAGI-1では2.38倍,SkyReels-V2では6.7倍,品質劣化は無視できる(VBench:0.87増加,0.79減少)。
これらの結果から,FlowCacheはリアルタイム,超長ビデオ生成のための自己回帰モデルの可能性の解放に成功し,大規模に効率的なビデオ合成のための新しいベンチマークを構築した。
コードはhttps://github.com/mikeallen39/FlowCacheで入手できる。
関連論文リスト
- PackCache: A Training-Free Acceleration Method for Unified Autoregressive Video Generation via Compact KV-Cache [61.57938553036056]
トレーニング不要なKVキャッシュ管理手法であるPackCacheを導入し,KVキャッシュを3つの協調機構でコンパクト化する。
効率の面では、PackCacheは48フレームの長いシーケンスで1.7-2.2倍のエンドツーエンド生成を高速化する。
論文 参考訳(メタデータ) (2026-01-07T19:51:06Z) - MixCache: Mixture-of-Cache for Video Diffusion Transformer Acceleration [15.22288174114487]
キャッシングは、DiTモデルで広く採用されている最適化手法である。
効率的なビデオDiT推論のためのトレーニング不要なキャッシュベースのフレームワークであるMixCacheを提案する。
論文 参考訳(メタデータ) (2025-08-18T07:49:33Z) - Ca2-VDM: Efficient Autoregressive Video Diffusion Model with Causal Generation and Cache Sharing [66.66090399385304]
Ca2-VDMは、Causal生成とキャッシュ共有を備えた効率的な自己回帰VDMである。
因果生成のために一方向の特徴計算を導入し、前回の自己回帰ステップで条件付きフレームのキャッシュをプリ計算できるようにする。
キャッシュ共有では、巨大なキャッシュストレージコストを避けるために、すべてのデノナイズステップでキャッシュを共有する。
論文 参考訳(メタデータ) (2024-11-25T13:33:41Z) - FasterCache: Training-Free Video Diffusion Model Acceleration with High Quality [58.80996741843102]
FasterCacheは、高品質な生成を伴うビデオ拡散モデルの推論を高速化するために設計された、トレーニング不要の戦略である。
我々は、FasterCacheがビデオの質をベースラインと同等に保ちながら、ビデオ生成を著しく加速できることを示した。
論文 参考訳(メタデータ) (2024-10-25T07:24:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。