論文の概要: ProDyG: Progressive Dynamic Scene Reconstruction via Gaussian Splatting from Monocular Videos
- arxiv url: http://arxiv.org/abs/2509.17864v1
- Date: Mon, 22 Sep 2025 14:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.449288
- Title: ProDyG: Progressive Dynamic Scene Reconstruction via Gaussian Splatting from Monocular Videos
- Title(参考訳): ProDyG: モノクロ映像からのガウススプレイティングによるプログレッシブダイナミックシーン再構成
- Authors: Shi Chen, Erik Sandström, Sandro Lombardi, Siyuan Li, Martin R. Oswald,
- Abstract要約: 既存のSLAMメソッドは、通常、動的部分を取り除くか、RGB-D入力を必要とする。
SLAMシステム内の静的部分と動的部分を切り離すことにより,オンライン動的シーン再構築を実現する。
本手法は,オフライン手法と競合する新しいビューレンダリングを実現し,最先端の動的SLAM手法によるオンパートラッキングを実現する。
- 参考スコア(独自算出の注目度): 23.98157113623466
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Achieving truly practical dynamic 3D reconstruction requires online operation, global pose and map consistency, detailed appearance modeling, and the flexibility to handle both RGB and RGB-D inputs. However, existing SLAM methods typically merely remove the dynamic parts or require RGB-D input, while offline methods are not scalable to long video sequences, and current transformer-based feedforward methods lack global consistency and appearance details. To this end, we achieve online dynamic scene reconstruction by disentangling the static and dynamic parts within a SLAM system. The poses are tracked robustly with a novel motion masking strategy, and dynamic parts are reconstructed leveraging a progressive adaptation of a Motion Scaffolds graph. Our method yields novel view renderings competitive to offline methods and achieves on-par tracking with state-of-the-art dynamic SLAM methods.
- Abstract(参考訳): 真の実用的な動的3D再構成を実現するには、オンライン操作、グローバルポーズとマップの一貫性、詳細な外観モデリング、RGBとRGB-Dの両方の入力を扱う柔軟性が必要である。
しかし、既存のSLAMメソッドは、通常、ダイナミックな部分を取り除くか、RGB-D入力を必要とするが、オフラインメソッドは長いビデオシーケンスにスケーラブルではないし、現在のトランスフォーマーベースのフィードフォワードメソッドは、グローバルな一貫性と外観の詳細を欠いている。
この目的のために、SLAMシステム内の静的部分と動的部分を切り離すことにより、オンライン動的シーン再構築を実現する。
ポーズは、新しいモーションマスキング戦略で頑健に追跡され、動的部品は、モーションスカッフルズグラフのプログレッシブ適応を利用して再構成される。
本手法は,オフライン手法と競合する新しいビューレンダリングを実現し,最先端の動的SLAM手法によるオンパートラッキングを実現する。
関連論文リスト
- DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - Dy3DGS-SLAM: Monocular 3D Gaussian Splatting SLAM for Dynamic Environments [5.050525952210101]
モノクロRGB入力を用いた動的シーンのための3次元ガウススティング(3DGS)SLAM法であるDy3DGS-SLAMを提案する。
その結果,Dy3DGS-SLAMは動的環境下での最先端のトラッキングとレンダリングを実現することがわかった。
論文 参考訳(メタデータ) (2025-06-06T10:43:41Z) - Back on Track: Bundle Adjustment for Dynamic Scene Reconstruction [78.27956235915622]
従来のSLAMシステムは、カジュアルなビデオでよく見られる非常にダイナミックなシーンと格闘する。
この研究は3Dポイントトラッカーを利用して、カメラによる動的物体の動きからカメラによる動きを分離する。
私たちのフレームワークは、従来のSLAM -- バンドル調整 -- の中核を、堅牢な学習ベースの3Dトラッカーフロントエンドと組み合わせています。
論文 参考訳(メタデータ) (2025-04-20T07:29:42Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - SpectroMotion: Dynamic 3D Reconstruction of Specular Scenes [7.590932716513324]
本稿では,3次元ガウス散乱(3DGS)と物理ベースレンダリング(PBR)と変形場を組み合わせた動的特異シーンの再構成手法を提案する。
フォトリアリスティック・リアルワールド・ダイナミック・スペキュラ・シーンを合成できる3DGS法は、現存する唯一のものである。
論文 参考訳(メタデータ) (2024-10-22T17:59:56Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。