論文の概要: RetimeGS: Continuous-Time Reconstruction of 4D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2603.13783v1
- Date: Sat, 14 Mar 2026 06:26:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.404027
- Title: RetimeGS: Continuous-Time Reconstruction of 4D Gaussian Splatting
- Title(参考訳): RetimeGS: 4D Gaussian Splatting の連続的再構成
- Authors: Xuezhen Wang, Li Ma, Yulin Shen, Zeyu Wang, Pedro V. Sander,
- Abstract要約: テンポラリリタイピングは、スローモーション再生、テンポラリ編集、ポストプロダクションといったアプリケーションには不可欠である。
既存の4D Gaussian Splatting (4DGS) メソッドは、離散フレームのインデックスに過度に適合するが、連続時間フレームの表現に苦慮し、タイムスタンプ間の補間時にゴーストアーティファクトに繋がる。
本稿では,3次元ガウスの時間的挙動を明確に定義し,時間的エイリアスを実現するシンプルな4DGS表現であるRetimeGSを提案する。
- 参考スコア(独自算出の注目度): 9.254380348086135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal retiming, the ability to reconstruct and render dynamic scenes at arbitrary timestamps, is crucial for applications such as slow-motion playback, temporal editing, and post-production. However, most existing 4D Gaussian Splatting (4DGS) methods overfit at discrete frame indices but struggle to represent continuous-time frames, leading to ghosting artifacts when interpolating between timestamps. We identify this limitation as a form of temporal aliasing and propose RetimeGS, a simple yet effective 4DGS representation that explicitly defines the temporal behavior of the 3D Gaussian and mitigates temporal aliasing. To achieve smooth and consistent interpolation, we incorporate optical flow-guided initialization and supervision, triple-rendering supervision, and other targeted strategies. Together, these components enable ghost-free, temporally coherent rendering even under large motions. Experiments on datasets featuring fast motion, non-rigid deformation, and severe occlusions demonstrate that RetimeGS achieves superior quality and coherence over state-of-the-art methods.
- Abstract(参考訳): 動的シーンを任意のタイムスタンプで再構成・レンダリングする機能であるテンポラルリタイピングは、スローモーション再生、テンポラル編集、ポストプロダクションなどのアプリケーションに不可欠である。
しかし、既存の 4D Gaussian Splatting (4DGS) の手法は、離散フレームのインデックスに過度に適合するが、連続フレームの表現に苦慮しているため、タイムスタンプ間の補間時にゴーストアーティファクトが生じる。
本研究では,この制限を時間的エイリアスの一形態として認識し,時間的エイリアスを緩和し,時間的エイリアスを緩和する3次元ガウスの時間的挙動を明確に定義したシンプルな4DGS表現であるRetimeGSを提案する。
円滑で一貫した補間を実現するため,光学フロー誘導初期化と監視,トリプルレンダリング監視,その他のターゲット戦略を取り入れた。
これらのコンポーネントは同時に、大きな動きの下でもゴーストフリーで時間的にコヒーレントなレンダリングを可能にする。
高速な動き、非剛性変形、厳密な閉塞を含むデータセットの実験は、RetimeGSが最先端の手法よりも優れた品質とコヒーレンスを実現していることを示している。
関連論文リスト
- Catalyst4D: High-Fidelity 3D-to-4D Scene Editing via Dynamic Propagation [51.4527986348543]
高品質な3D編集を動的4Dガウスシーンに転送するフレームワークであるCatalyst4Dを紹介する。
AMGは、オリジナルのガウスアンと編集されたガウスアンの両方から、構造的に安定で空間的に代表的なアンカーのセットを構築している。
CUARは、ガウス色当たりの不確かさを推定することにより、時間的外観整合性を維持する。
論文 参考訳(メタデータ) (2026-03-13T08:10:27Z) - Mango-GS: Enhancing Spatio-Temporal Consistency in Dynamic Scenes Reconstruction using Multi-Frame Node-Guided 4D Gaussian Splatting [17.957935001501106]
我々は,高忠実度4D再構成のためのノード誘導フレームワークMango-GSを提案する。
時間変換器を利用して、フレームの短いウィンドウ内での動作依存をモデル化する。
Mango-GSは、最先端の再構築品質とリアルタイムレンダリング速度を達成する。
論文 参考訳(メタデータ) (2026-03-12T05:00:16Z) - SS4D: Native 4D Generative Model via Structured Spacetime Latents [50.29500511908054]
モノクロビデオから直接動的3Dオブジェクトを合成する,ネイティブな4D生成モデルであるSS4Dを提案する。
発電機を4Dデータで直接訓練し、高忠実度、時間的コヒーレンス、構造的整合性を実現する。
論文 参考訳(メタデータ) (2025-12-16T10:45:06Z) - MoRel: Long-Range Flicker-Free 4D Motion Modeling via Anchor Relay-based Bidirectional Blending with Hierarchical Densification [10.799902862870288]
MoRelは、時間的に一貫したメモリ効率のモデリングのための新しいフレームワークである。
我々のアプローチは、時間的不連続を緩和し、成果物をひらめかせる。
境界メモリ使用率を維持しつつ、時間的コヒーレントでフリッカフリーなロングレンジ4D再構成を実現する。
論文 参考訳(メタデータ) (2025-12-10T02:49:09Z) - Dynamic Gaussian Scene Reconstruction from Unsynchronized Videos [31.54046494140498]
マルチビュー映像再構成はコンピュータビジョンにおいて重要な役割を担い、映画製作、バーチャルリアリティー、モーション分析に応用できる。
同期のないマルチビュービデオから高品質な4DGS再構成を実現するための新しい時間的アライメント戦略を提案する。
論文 参考訳(メタデータ) (2025-11-14T11:20:43Z) - 4DSTR: Advancing Generative 4D Gaussians with Spatial-Temporal Rectification for High-Quality and Consistent 4D Generation [28.11338918279445]
本研究では,空間的時間的補正により生成する4次元ガウス散乱を変調する4DSTRと呼ばれる新しい4D生成ネットワークを提案する。
実験の結果,4DSTRは映像から4Dまでの性能を向上し,再現性,空間的時間的整合性,迅速な時間的動きへの適応性に優れていた。
論文 参考訳(メタデータ) (2025-11-10T15:57:03Z) - ShapeGen4D: Towards High Quality 4D Shape Generation from Videos [85.45517487721257]
ビデオからエンドツーエンドに1つの動的3次元表現を合成する,ネイティブなビデオから4次元の形状生成フレームワークを提案する。
本手法は,フレームごとの最適化を行なわずに,非剛性運動,体積変化,および位相遷移を正確にキャプチャする。
論文 参考訳(メタデータ) (2025-10-07T17:58:11Z) - FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - STDR: Spatio-Temporal Decoupling for Real-Time Dynamic Scene Rendering [15.873329633980015]
既存の3DGSに基づく動的再構成法は、しばしばtextbfSTDR(リアルタイムレンダリングのための空間結合デテンポラル)に悩まされる
実時間レンダリングのためのテキストbfSTDR (Spatio-coupling DeTemporal for Real-time rendering) を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:26:41Z) - Free4D: Tuning-free 4D Scene Generation with Spatial-Temporal Consistency [49.875459658889355]
Free4Dは、単一の画像から4Dシーンを生成するためのチューニング不要のフレームワークである。
我々の重要な洞察は、一貫した4次元シーン表現のために、事前訓練された基礎モデルを蒸留することである。
結果の4D表現はリアルタイムで制御可能なレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-03-26T17:59:44Z) - Deblur4DGS: 4D Gaussian Splatting from Blurry Monocular Video [55.704264233274294]
ぼやけたモノクロ映像から高品質な4Dモデルを再構成するためのDeblur4DGSを提案する。
我々は露光時間内の連続的動的表現を露光時間推定に変換する。
Deblur4DGSは、新規なビュー合成以外にも、複数の視点からぼやけたビデオを改善するために応用できる。
論文 参考訳(メタデータ) (2024-12-09T12:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。