論文の概要: Gaussian Sequences with Multi-Scale Dynamics for 4D Reconstruction from Monocular Casual Videos
- arxiv url: http://arxiv.org/abs/2602.13806v1
- Date: Sat, 14 Feb 2026 14:30:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.432125
- Title: Gaussian Sequences with Multi-Scale Dynamics for 4D Reconstruction from Monocular Casual Videos
- Title(参考訳): モノクロカジュアル映像からの4次元再構成のためのマルチスケールダイナミックスを用いたガウス系列
- Authors: Can Li, Jie Gu, Jingmin Chen, Fangzhou Qiu, Lei Sun,
- Abstract要約: 実世界の力学は、物体から粒子レベルへの多スケールの規則性を示す。
複雑な運動場を分解するマルチスケールダイナミックス機構を設計する。
本手法により,モノクロカジュアルビデオからの高精度で一貫した4次元再構成が可能となった。
- 参考スコア(独自算出の注目度): 7.422432435797114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding dynamic scenes from casual videos is critical for scalable robot learning, yet four-dimensional (4D) reconstruction under strictly monocular settings remains highly ill-posed. To address this challenge, our key insight is that real-world dynamics exhibits a multi-scale regularity from object to particle level. To this end, we design the multi-scale dynamics mechanism that factorizes complex motion fields. Within this formulation, we propose Gaussian sequences with multi-scale dynamics, a novel representation for dynamic 3D Gaussians derived through compositions of multi-level motion. This layered structure substantially alleviates ambiguity of reconstruction and promotes physically plausible dynamics. We further incorporate multi-modal priors from vision foundation models to establish complementary supervision, constraining the solution space and improving the reconstruction fidelity. Our approach enables accurate and globally consistent 4D reconstruction from monocular casual videos. Experiments of dynamic novel-view synthesis (NVS) on benchmark and real-world manipulation datasets demonstrate considerable improvements over existing methods.
- Abstract(参考訳): カジュアルなビデオからダイナミックなシーンを理解することは、スケーラブルなロボット学習には重要だが、厳密なモノラルな設定下での4次元(4D)再構成は、非常に不適切である。
この課題に対処するために、我々の重要な洞察は、実世界の力学が物体から粒子レベルまで多スケールの規則性を示すことである。
この目的のために、複雑な運動場を分解するマルチスケール力学機構を設計する。
この定式化の中で,多段運動の合成から導出される動的3次元ガウスの新たな表現である,マルチスケールダイナミクスを用いたガウス列を提案する。
この階層構造は、再構築の曖昧さを大幅に軽減し、物理的にもっともらしい力学を促進する。
さらに、視覚基盤モデルからのマルチモーダル先入観を取り入れて、補完的な監督を確立し、ソリューション空間を制約し、再構築の忠実性を向上させる。
本手法は,モノクロカジュアルビデオからの高精度で一貫した4次元再構成を可能にする。
ベンチマークおよび実世界の操作データセットにおける動的ノベルビュー合成(NVS)の実験は、既存の手法よりも大幅に改善されている。
関連論文リスト
- 4D3R: Motion-Aware Neural Reconstruction and Rendering of Dynamic Scenes from Monocular Videos [52.89084603734664]
静的および動的コンポーネントを2段階のアプローチで分離する,ポーズフリーな動的ニューラルネットワークレンダリングフレームワークである4D3Rを提案する。
提案手法は最先端手法よりも最大1.8dBPSNRの改善を実現する。
論文 参考訳(メタデータ) (2025-11-07T13:25:50Z) - Laplacian Analysis Meets Dynamics Modelling: Gaussian Splatting for 4D Reconstruction [9.911802466255653]
本稿では,ハイブリッドな明示的関数を持つ動的3DGSフレームワークを提案する。
本手法は, 複雑な動的シーンを再構築する際の最先端性能を実証し, 再現精度を向上する。
論文 参考訳(メタデータ) (2025-08-07T01:39:29Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - DynaSplat: Dynamic-Static Gaussian Splatting with Hierarchical Motion Decomposition for Scene Reconstruction [9.391616497099422]
我々は,ガウススプラッティングをダイナミックなシーンに拡張するアプローチであるDynaSplatを提案する。
我々は、変形オフセット統計と2次元運動流の整合性の融合により、シーン要素を静的または動的に分類する。
次に、粗い大域変換ときめ細かい局所運動の両方を捉える階層的な動きモデリング戦略を導入する。
論文 参考訳(メタデータ) (2025-06-11T15:13:35Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - Dyn-HaMR: Recovering 4D Interacting Hand Motion from a Dynamic Camera [49.82535393220003]
Dyn-HaMRは、野生のダイナミックカメラで撮影されたモノクロビデオから4Dグローバルハンドモーションを再構築する最初のアプローチである。
提案手法は,4次元メッシュ・リカバリにおいて最先端の手法を著しく上回ることを示す。
これにより、動くカメラでモノクロビデオから手の動きを復元するための新しいベンチマークが確立される。
論文 参考訳(メタデータ) (2024-12-17T12:43:10Z) - DRSM: efficient neural 4d decomposition for dynamic reconstruction in
stationary monocular cameras [21.07910546072467]
モノクロカメラにおける動的シーンの4次元分解問題に対処するための新しい枠組みを提案する。
本フレームワークでは,分解された静的・動的特徴面を用いて4次元シーンを表現し,高密度光線キャスティングによる動的領域の学習を強調する。
論文 参考訳(メタデータ) (2024-02-01T16:38:51Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。