論文の概要: WorldCache: Accelerating World Models for Free via Heterogeneous Token Caching
- arxiv url: http://arxiv.org/abs/2603.06331v1
- Date: Fri, 06 Mar 2026 14:43:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.979504
- Title: WorldCache: Accelerating World Models for Free via Heterogeneous Token Caching
- Title(参考訳): WorldCache: 異種トークンキャッシュによる無償のワールドモデル高速化
- Authors: Weilun Feng, Guoxin Fan, Haotong Qin, Chuanguang Yang, Mingqiang Wu, Yuqi Li, Xiangqi Li, Zhulin An, Libo Huang, Dingrui Wang, Longlong Liao, Michele Magno, Yongjun Xu,
- Abstract要約: 拡散ワールドモデルに適したキャッシュフレームワークである textbfWorldCache を提案する。
We show that WorldCache delivers to textbf3.7$times$ end-to-end speedups while maintain textbf98% rollout quality。
- 参考スコア(独自算出の注目度): 50.43356949257532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based world models have shown strong potential for unified world simulation, but the iterative denoising remains too costly for interactive use and long-horizon rollouts. While feature caching can accelerate inference without training, we find that policies designed for single-modal diffusion transfer poorly to world models due to two world-model-specific obstacles: \emph{token heterogeneity} from multi-modal coupling and spatial variation, and \emph{non-uniform temporal dynamics} where a small set of hard tokens drives error growth, making uniform skipping either unstable or overly conservative. We propose \textbf{WorldCache}, a caching framework tailored to diffusion world models. We introduce \textit{Curvature-guided Heterogeneous Token Prediction}, which uses a physics-grounded curvature score to estimate token predictability and applies a Hermite-guided damped predictor for chaotic tokens with abrupt direction changes. We also design \textit{Chaotic-prioritized Adaptive Skipping}, which accumulates a curvature-normalized, dimensionless drift signal and recomputes only when bottleneck tokens begin to drift. Experiments on diffusion world models show that WorldCache delivers up to \textbf{3.7$\times$} end-to-end speedups while maintaining \textbf{98\%} rollout quality, demonstrating the vast advantages and practicality of WorldCache in resource-constrained scenarios. Our code is released in https://github.com/FofGofx/WorldCache.
- Abstract(参考訳): 拡散に基づく世界モデルは、統一された世界シミュレーションの強い可能性を示しているが、インタラクティブな使用や長期のロールアウトには、反復的なデノナイジングが高すぎる。
特徴キャッシングはトレーニングなしで推論を加速させるが、多モード結合と空間変動から生じる「emph{token heterogeneity}」と「emph{non-uniform temporal dynamics」という2つの世界モデル固有の障害により、単一モード拡散に設計されたポリシーは世界モデルにとって不十分である。
本研究では,拡散ワールドモデルに適したキャッシュフレームワークである‘textbf{WorldCache} を提案する。
我々は,物理基底曲率スコアを用いてトークン予測性を推定し,急激な方向変化を伴うカオストークンに対してHermite誘導減衰予測器を適用する,‘textit{Curvature-guided Heterogeneous Token Prediction} を導入する。
また、カーベチュ正規化され、次元を持たないドリフト信号が蓄積され、ボトルネックトークンがドリフトし始めたときにのみ再計算される「textit{Chaotic-prioritized Adaptive Skipping}」を設計する。
拡散ワールドモデルに関する実験によると、WorldCacheは、リソース制約のあるシナリオにおいて、WorldCacheの膨大な利点と実用性を示しながら、エンド・ツー・エンドのスピードアップを提供する。
私たちのコードはhttps://github.com/FofGofx/WorldCacheでリリースされています。
関連論文リスト
- Denoising as Path Planning: Training-Free Acceleration of Diffusion Models with DPCache [8.614492355393578]
本研究では,グローバルパス計画問題として拡散加速を定式化する学習自由加速フレームワークDPCacheを提案する。
DPCacheは動的プログラミングを使用して、トラジェクティブの忠実さを維持しながら、全体のパスコストを最小限に抑える、キータイムステップの最適なシーケンスを選択する。
DiT、FLUX、HunyuanVideoの実験では、DPCacheは最小品質の損失で強力な加速を実現している。
論文 参考訳(メタデータ) (2026-02-26T06:13:33Z) - Fast-SAM3D: 3Dfy Anything in Images but Faster [65.17322167628367]
SAM3Dは複雑なシーンからスケーラブルでオープンな3D再構築を可能にする。
textbfFast-SAM3Dは、計算を瞬時生成の複雑さと整合させる、トレーニング不要のフレームワークである。
論文 参考訳(メタデータ) (2026-02-05T04:27:59Z) - DiCache: Let Diffusion Model Determine Its Own Cache [62.954717254728166]
DiCacheは、実行時に拡散モデルを加速するためのトレーニング不要のアダプティブキャッシュ戦略である。
Online Probe Profiling Schemeは浅層オンラインプローブを利用して,キャッシュエラーのオンザフライインジケータをリアルタイムで取得する。
Dynamic Cache Trajectory Alignmentは、マルチステップの履歴キャッシュから出力されるディープ層の特徴を近似する。
論文 参考訳(メタデータ) (2025-08-24T13:30:00Z) - SlimInfer: Accelerating Long-Context LLM Inference via Dynamic Token Pruning [3.502168555273189]
SlimInferは、フォワードパス中にあまり重要でないプロンプトトークンを直接プルーニングすることで推論を加速することを目的としている。
SlimInferは最大$mathbf2.53times$ time-to-first-token(TTFT)スピードアップと$mathbf1.88times$ end-to-end latency reduction for LLaMA3.1-8B-Instructを実現する。
論文 参考訳(メタデータ) (2025-08-08T16:42:38Z) - Compressed and Smooth Latent Space for Text Diffusion Modeling [71.87805084454187]
テキスト生成のための新しいアプローチであるCosmosを紹介します。
我々は,トークンレベルの拡散モデルに匹敵する生成品質を維持しつつ,テキスト表現を8倍に圧縮できることを実証した。
本研究では,ストーリー生成,質問生成,要約,デトキシフィケーションを含む4つの多種多様な生成課題についてコスモスを評価し,様々な生成パラダイムと比較する。
論文 参考訳(メタデータ) (2025-06-26T12:05:13Z) - Model Reveals What to Cache: Profiling-Based Feature Reuse for Video Diffusion Models [41.11005178050448]
ProfilingDiTは、フォアグラウンドとバックグラウンドに焦点を当てたブロックを明示的にアンタングルする、新しいアダプティブキャッシュ戦略である。
当社のフレームワークは,総合的な品質指標間の視覚的忠実度を維持しながら,大幅な加速を実現している。
論文 参考訳(メタデータ) (2025-04-04T03:30:15Z) - DeepCache: Accelerating Diffusion Models for Free [65.02607075556742]
DeepCacheは、モデルアーキテクチャの観点から拡散モデルを加速するトレーニング不要のパラダイムである。
DeepCacheは拡散モデルのシーケンシャルなデノナイジングステップで観測される時間的冗長性に乗じている。
同じスループットで、DeepCacheはDDIMやPLMSで、事実上同等または極端に改善された結果を達成する。
論文 参考訳(メタデータ) (2023-12-01T17:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。