論文の概要: MOSAIC-GS: Monocular Scene Reconstruction via Advanced Initialization for Complex Dynamic Environments
- arxiv url: http://arxiv.org/abs/2601.05368v1
- Date: Thu, 08 Jan 2026 20:48:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.76504
- Title: MOSAIC-GS: Monocular Scene Reconstruction via Advanced Initialization for Complex Dynamic Environments
- Title(参考訳): MOSAIC-GS:複雑な動的環境に対する高度初期化による単眼的シーン再構成
- Authors: Svitlana Morkva, Maximum Wilder-Smith, Michael Oechsle, Alessio Tonioni, Marco Hutter, Vaishakh Patil,
- Abstract要約: MOSAIC-GSはモノクロビデオから高忠実度ダイナミックシーンを再構築するための、新しく、完全に明示的で、計算的に効率的なアプローチである。
我々は,深度,光学的流れ,動的物体セグメンテーション,点追跡など,複数の幾何学的手法を活用する。
我々は,MOSAIC-GSが既存の手法に比べて大幅に高速な最適化とレンダリングを実現することを実証した。
- 参考スコア(独自算出の注目度): 12.796165448365949
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present MOSAIC-GS, a novel, fully explicit, and computationally efficient approach for high-fidelity dynamic scene reconstruction from monocular videos using Gaussian Splatting. Monocular reconstruction is inherently ill-posed due to the lack of sufficient multiview constraints, making accurate recovery of object geometry and temporal coherence particularly challenging. To address this, we leverage multiple geometric cues, such as depth, optical flow, dynamic object segmentation, and point tracking. Combined with rigidity-based motion constraints, these cues allow us to estimate preliminary 3D scene dynamics during an initialization stage. Recovering scene dynamics prior to the photometric optimization reduces reliance on motion inference from visual appearance alone, which is often ambiguous in monocular settings. To enable compact representations, fast training, and real-time rendering while supporting non-rigid deformations, the scene is decomposed into static and dynamic components. Each Gaussian in the dynamic part of the scene is assigned a trajectory represented as time-dependent Poly-Fourier curve for parameter-efficient motion encoding. We demonstrate that MOSAIC-GS achieves substantially faster optimization and rendering compared to existing methods, while maintaining reconstruction quality on par with state-of-the-art approaches across standard monocular dynamic scene benchmarks.
- Abstract(参考訳): ガウススプラッティングを用いたモノクロ映像からの高忠実度動的シーン再構成のための,新しい,完全に明示的で,計算的に効率的な手法MOSAIC-GSを提案する。
単分子的再構成は、十分に多視点的な制約が欠如していることから本質的に不適切であり、オブジェクトの幾何学と時間的コヒーレンスを正確に回復させることが特に困難である。
この問題に対処するために、深度、光学的流れ、動的物体分割、点追跡など、複数の幾何学的手がかりを利用する。
剛性に基づく動きの制約と組み合わせることで、初期化段階における予備的な3次元シーンのダイナミクスを推定することができる。
光度最適化前のシーンダイナミクスの復元は、視覚的外観のみからのモーション推論への依存を減少させるが、これは単眼ではしばしば曖昧である。
非剛体変形をサポートしながら、コンパクトな表現、高速トレーニング、リアルタイムレンダリングを可能にするため、シーンは静的および動的コンポーネントに分解される。
シーンのダイナミック部分の各ガウスは、パラメータ効率のよい動き符号化のための時間依存ポリフーリエ曲線として表される軌道を割り当てる。
我々は,MOSAIC-GSが従来の手法に比べて大幅に高速な最適化とレンダリングを実現するとともに,標準的なモノクロダイナミックシーンベンチマークにおける最先端手法と同等の再現品質を維持することを実証した。
関連論文リスト
- SV-GS: Sparse View 4D Reconstruction with Skeleton-Driven Gaussian Splatting [19.12278036176021]
SV-GSは変形モデルと物体の動きを同時に推定するフレームワークである。
提案手法は,PSNRの34%までのスパース観測下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2026-01-01T09:53:03Z) - SplitGaussian: Reconstructing Dynamic Scenes via Visual Geometry Decomposition [14.381223353489062]
textbfSplitGaussianは、シーン表現を静的および動的コンポーネントに明示的に分解する新しいフレームワークである。
SplitGaussianは、レンダリング品質、幾何学的安定性、動き分離において、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-08-06T09:00:13Z) - DynaSplat: Dynamic-Static Gaussian Splatting with Hierarchical Motion Decomposition for Scene Reconstruction [9.391616497099422]
我々は,ガウススプラッティングをダイナミックなシーンに拡張するアプローチであるDynaSplatを提案する。
我々は、変形オフセット統計と2次元運動流の整合性の融合により、シーン要素を静的または動的に分類する。
次に、粗い大域変換ときめ細かい局所運動の両方を捉える階層的な動きモデリング戦略を導入する。
論文 参考訳(メタデータ) (2025-06-11T15:13:35Z) - Feed-Forward Bullet-Time Reconstruction of Dynamic Scenes from Monocular Videos [110.3924779333809]
動的シーンのリアルタイム再構成と新しいビュー合成のための,モーション対応フィードフォワードモデルであるBTimerを提案する。
提案手法は,すべてのコンテキストフレームから情報を集約することにより,所定の目標("bullet')タイムスタンプにおける3次元ガウススティング表現の全体像を再構成する。
カジュアルなモノクロのダイナミックビデオが与えられた後、BTimerは150ms以内の弾道時間シーンを再構築し、静的および動的両方のシーンデータセットで最先端のパフォーマンスに到達した。
論文 参考訳(メタデータ) (2024-12-04T18:15:06Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - Modeling Ambient Scene Dynamics for Free-view Synthesis [31.233859111566613]
モノクルキャプチャから周囲のシーンを動的に自由視点で合成する手法を提案する。
本手法は, 複雑な静的シーンを忠実に再構築できる3次元ガウス散乱(3DGS)の最近の進歩に基づいている。
論文 参考訳(メタデータ) (2024-06-13T17:59:11Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。