論文の概要: LeMiCa: Lexicographic Minimax Path Caching for Efficient Diffusion-Based Video Generation
- arxiv url: http://arxiv.org/abs/2511.00090v1
- Date: Thu, 30 Oct 2025 04:57:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.578665
- Title: LeMiCa: Lexicographic Minimax Path Caching for Efficient Diffusion-Based Video Generation
- Title(参考訳): LeMiCa: 効率的な拡散型ビデオ生成のためのレキソグラフィーミニマックスパスキャッシング
- Authors: Huanlin Gao, Ping Chen, Fuyuan Shi, Chao Tan, Zhaoxiang Liu, Fang Zhao, Kai Wang, Shiguo Lian,
- Abstract要約: LeMiCaは、拡散型ビデオ生成のためのトレーニングフリーで効率的な加速フレームワークである。
我々は,最悪の経路誤差を明示的に拘束するLexicographic Minimax Path Optimization戦略を導入する。
提案手法はLatteモデルの2.9倍の高速化を実現し,Open-SoraのLPIPSスコア0.05に達する。
- 参考スコア(独自算出の注目度): 13.345755009676042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present LeMiCa, a training-free and efficient acceleration framework for diffusion-based video generation. While existing caching strategies primarily focus on reducing local heuristic errors, they often overlook the accumulation of global errors, leading to noticeable content degradation between accelerated and original videos. To address this issue, we formulate cache scheduling as a directed graph with error-weighted edges and introduce a Lexicographic Minimax Path Optimization strategy that explicitly bounds the worst-case path error. This approach substantially improves the consistency of global content and style across generated frames. Extensive experiments on multiple text-to-video benchmarks demonstrate that LeMiCa delivers dual improvements in both inference speed and generation quality. Notably, our method achieves a 2.9x speedup on the Latte model and reaches an LPIPS score of 0.05 on Open-Sora, outperforming prior caching techniques. Importantly, these gains come with minimal perceptual quality degradation, making LeMiCa a robust and generalizable paradigm for accelerating diffusion-based video generation. We believe this approach can serve as a strong foundation for future research on efficient and reliable video synthesis. Our code is available at :https://github.com/UnicomAI/LeMiCa
- Abstract(参考訳): 拡散型ビデオ生成のためのトレーニングフリーで効率的な加速フレームワークであるLeMiCaについて述べる。
既存のキャッシュ戦略は、主にローカルなヒューリスティックなエラーを減らすことに重点を置いているが、グローバルなエラーの蓄積を見落とし、アクセラレーションされたビデオとオリジナルビデオの間に顕著なコンテンツ劣化をもたらすことが多い。
この問題に対処するために、エラー重み付きエッジを持つ有向グラフとしてキャッシュスケジューリングを定式化し、最悪のパスエラーを明示的に拘束するLexicographic Minimax Path Optimization戦略を導入する。
このアプローチは、生成されたフレーム間のグローバルコンテンツとスタイルの一貫性を大幅に改善する。
複数のテキストとビデオのベンチマークに関する大規模な実験は、LeMiCaが推論速度と生成品質の両方で2つの改善を提供することを示した。
特に,本手法はLatteモデルの2.9倍の高速化を実現し,Open-SoraのLPIPSスコア0.05に達した。
重要なのは、これらの向上は知覚品質の低下を最小限に抑え、LeMiCaは拡散ベースのビデオ生成を加速するための堅牢で一般化可能なパラダイムとなることだ。
我々は、このアプローチが、効率的で信頼性の高いビデオ合成に関する将来の研究の基盤となると信じている。
私たちのコードはhttps://github.com/UnicomAI/LeMiCaで利用可能です。
関連論文リスト
- LightCache: Memory-Efficient, Training-Free Acceleration for Video Generation [40.968338980157846]
拡散モデルに基づくビデオ生成の先進的な研究領域として、トレーニングフリー加速が出現している。
本稿では,推論過程を符号化・復号化・復号化段階に分解する。
本稿では,メモリ消費を減らすためのステージ固有の戦略を提案する。
論文 参考訳(メタデータ) (2025-10-06T20:54:44Z) - Less is Enough: Training-Free Video Diffusion Acceleration via Runtime-Adaptive Caching [57.7533917467934]
EasyCacheは、ビデオ拡散モデルのためのトレーニング不要のアクセラレーションフレームワークである。
我々は,OpenSora,Wan2.1,HunyuanVideoなどの大規模ビデオ生成モデルについて包括的な研究を行っている。
提案手法は,従来のベースラインと比較して推定時間を最大2.1-3.3$times$に短縮する。
論文 参考訳(メタデータ) (2025-07-03T17:59:54Z) - QuantCache: Adaptive Importance-Guided Quantization with Hierarchical Latent and Layer Caching for Video Generation [84.91431271257437]
Diffusion Transformers (DiTs) はビデオ生成において支配的なアーキテクチャとして登場した。
DiTには、計算コストやメモリコストの増大など、大きな欠点がある。
我々は,新しいトレーニングフリー推論アクセラレーションフレームワークQuantCacheを提案する。
論文 参考訳(メタデータ) (2025-03-09T10:31:51Z) - Adaptive Caching for Faster Video Generation with Diffusion Transformers [52.73348147077075]
拡散変換器(DiT)はより大きなモデルと重い注意機構に依存しており、推論速度が遅くなる。
本稿では,Adaptive Caching(AdaCache)と呼ばれる,ビデオDiTの高速化のためのトレーニング不要手法を提案する。
また,AdaCache内で動画情報を利用するMoReg方式を導入し,動作内容に基づいて計算割り当てを制御する。
論文 参考訳(メタデータ) (2024-11-04T18:59:44Z) - FasterCache: Training-Free Video Diffusion Model Acceleration with High Quality [58.80996741843102]
FasterCacheは、高品質な生成を伴うビデオ拡散モデルの推論を高速化するために設計された、トレーニング不要の戦略である。
我々は、FasterCacheがビデオの質をベースラインと同等に保ちながら、ビデオ生成を著しく加速できることを示した。
論文 参考訳(メタデータ) (2024-10-25T07:24:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。