論文の概要: Turbo4DGen: Ultra-Fast Acceleration for 4D Generation
- arxiv url: http://arxiv.org/abs/2603.29572v1
- Date: Sat, 24 Jan 2026 23:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:13.141331
- Title: Turbo4DGen: Ultra-Fast Acceleration for 4D Generation
- Title(参考訳): ターボ4DGen:4Dジェネレーションのための超高速加速
- Authors: Yuanbin Man, Ying Huang, Zhile Ren, Miao Yin,
- Abstract要約: Turbo4DGenは、マルチビューアウェアな4Dコンテンツ生成のための超高速加速フレームワークである。
実験の結果、Turbo4Dは品質劣化のない平均9.7ドルのスピードアップを達成した。
我々の知る限りでは、Turbo4Dは4D生成のための最初の専用の加速フレームワークである。
- 参考スコア(独自算出の注目度): 13.326567592808884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 4D generation, or dynamic 3D content generation, integrates spatial, temporal, and view dimensions to model realistic dynamic scenes, playing a foundational role in advancing world models and physical AI. However, maintaining long-chain consistency across both frames and viewpoints through the unique spatio-camera-motion (SCM) attention mechanism introduces substantial computational and memory overhead, often leading to out-of-memory (OOM) failures and prohibitive generation times. To address these challenges, we propose Turbo4DGen, an ultra-fast acceleration framework for diffusion-based multi-view 4D content generation. Turbo4DGen introduces a spatiotemporal cache mechanism that persistently reuses intermediate attention across denoising steps, combined with dynamically semantic-aware attention pruning and an adaptive SCM chain bypass scheduler, to drastically reduce redundant SCM attention computation. Our experimental results show that Turbo4DGen achieves an average 9.7$\times$ speedup without quality degradation on the ObjaverseDy and Consistent4D datasets. To the best of our knowledge, Turbo4DGen is the first dedicated acceleration framework for 4D generation.
- Abstract(参考訳): 4D生成または動的3Dコンテンツ生成は、空間的、時間的、およびビュー次元を統合し、現実的な動的なシーンをモデル化し、世界モデルと物理AIの進歩に基礎的な役割を果たす。
しかし、SCM(Spatio-camera-motion)アテンションメカニズムを通じて、フレームと視点の長いチェーン一貫性を維持することで、計算とメモリのオーバーヘッドが大幅に増加し、しばしばメモリ外障害(OOM)が発生し、生成が禁止される。
これらの課題に対処するため,拡散型多視点4Dコンテンツ生成のための超高速加速フレームワークであるTurbo4DGenを提案する。
動的セマンティック・アウェア・アウェア・プルーニングと適応型SCMチェーン・バイパススケジューラを組み合わせることで、冗長なSCMアテンション計算を大幅に削減する。
実験の結果,Turbo4DGenはObjaverseDyおよびConsistent4Dデータセットの品質劣化を伴わない平均9.7$\times$の高速化を実現していることがわかった。
我々の知る限り、Turbo4DGenは4D生成のための最初の専用の加速フレームワークです。
関連論文リスト
- SS4D: Native 4D Generative Model via Structured Spacetime Latents [50.29500511908054]
モノクロビデオから直接動的3Dオブジェクトを合成する,ネイティブな4D生成モデルであるSS4Dを提案する。
発電機を4Dデータで直接訓練し、高忠実度、時間的コヒーレンス、構造的整合性を実現する。
論文 参考訳(メタデータ) (2025-12-16T10:45:06Z) - Tracking-Guided 4D Generation: Foundation-Tracker Motion Priors for 3D Model Animation [21.075786141331974]
スパース入力から動的4Dオブジェクトを生成するフレームワークであるemphTrack4DGenを提案する。
ステージ1では拡散発生器内の高密度な特徴レベル対応を強制する。
ステージ2では,ハイブリッドモーション符号化を用いて動的4D-GSを再構成する。
論文 参考訳(メタデータ) (2025-12-05T21:13:04Z) - 4DGCPro: Efficient Hierarchical 4D Gaussian Compression for Progressive Volumetric Video Streaming [52.76837132019501]
本稿では,新しい階層型4D圧縮フレームワークである4DGCProを紹介する。
4DGCProは、プログレッシブボリュームビデオストリーミングによるリアルタイムモバイルデコーディングと高品質なレンダリングを容易にする。
エンドツーエンドのエントロピー最適化トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2025-09-22T08:38:17Z) - Free4D: Tuning-free 4D Scene Generation with Spatial-Temporal Consistency [49.875459658889355]
Free4Dは、単一の画像から4Dシーンを生成するためのチューニング不要のフレームワークである。
我々の重要な洞察は、一貫した4次元シーン表現のために、事前訓練された基礎モデルを蒸留することである。
結果の4D表現はリアルタイムで制御可能なレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-03-26T17:59:44Z) - FB-4D: Spatial-Temporal Coherent Dynamic 3D Content Generation with Feature Banks [28.520790351004088]
FB-4D は,生成フレームにおける空間的・時間的整合性を高めるために,Feature Bank 機構を統合した新しい 4D 生成フレームワークである。
FB-4Dは、レンダリング品質、空間的時間的整合性、ロバスト性において、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-26T17:59:31Z) - Diffusion4D: Fast Spatial-temporal Consistent 4D Generation via Video Diffusion Models [116.31344506738816]
高速でスケーラブルな4Dコンテンツ生成のための新しいフレームワーク textbfDiffusion4D を提案する。
ダイナミックな3Dアセットの軌道ビューを合成できる4D対応ビデオ拡散モデルを開発した。
提案手法は, 生成効率と4次元幾何整合性の観点から, 従来の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-05-26T17:47:34Z) - MAMBA4D: Efficient Long-Sequence Point Cloud Video Understanding with Disentangled Spatial-Temporal State Space Models [14.024240637175216]
状態空間モデル(SSM)に基づく新しいポイントクラウドビデオ理解バックボーンを提案する。
具体的には,まず空間と時間を4次元ビデオシーケンスで切り離し,設計したマンバブロックと空間的時間的相関を確立する。
提案手法は, 87.5%のGPUメモリ削減と5.36倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-05-23T09:08:09Z) - DreamGaussian4D: Generative 4D Gaussian Splatting [56.49043443452339]
DG4D(DreamGaussian 4D:DreamGaussian 4D)はGaussian Splatting(GS)をベースとした効率的な4D生成フレームワークである。
我々の重要な洞察は、空間変換の明示的なモデリングと静的GSを組み合わせることで、4次元生成の効率的かつ強力な表現ができるということである。
ビデオ生成手法は、高画質の4D生成を向上し、価値ある時空間前兆を提供する可能性がある。
論文 参考訳(メタデータ) (2023-12-28T17:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。