論文の概要: Prior-Enhanced Gaussian Splatting for Dynamic Scene Reconstruction from Casual Video
- arxiv url: http://arxiv.org/abs/2512.11356v1
- Date: Fri, 12 Dec 2025 08:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.697136
- Title: Prior-Enhanced Gaussian Splatting for Dynamic Scene Reconstruction from Casual Video
- Title(参考訳): カジュアルビデオからの動的シーン再構成のためのガウス切削法
- Authors: Meng-Li Shih, Ying-Huan Chen, Yu-Lun Liu, Brian Curless,
- Abstract要約: カジュアルにキャプチャされた単眼RGBビデオから動的シーン再構築のための完全自動パイプラインを導入する。
ビデオセグメンテーションとエピポーラ・エラーマップを組み合わせると、細い構造を忠実に追従するオブジェクトレベルのマスクが得られる。
結果として得られるシステムは、従来のモノラルな動的シーン再構築手法を超越し、視覚的に優れたレンダリングを提供する。
- 参考スコア(独自算出の注目度): 11.154201015217415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a fully automatic pipeline for dynamic scene reconstruction from casually captured monocular RGB videos. Rather than designing a new scene representation, we enhance the priors that drive Dynamic Gaussian Splatting. Video segmentation combined with epipolar-error maps yields object-level masks that closely follow thin structures; these masks (i) guide an object-depth loss that sharpens the consistent video depth, and (ii) support skeleton-based sampling plus mask-guided re-identification to produce reliable, comprehensive 2-D tracks. Two additional objectives embed the refined priors in the reconstruction stage: a virtual-view depth loss removes floaters, and a scaffold-projection loss ties motion nodes to the tracks, preserving fine geometry and coherent motion. The resulting system surpasses previous monocular dynamic scene reconstruction methods and delivers visibly superior renderings
- Abstract(参考訳): カジュアルにキャプチャされた単眼RGBビデオから動的シーン再構築のための完全自動パイプラインを導入する。
新しいシーン表現を設計する代わりに、動的ガウススプラッティングを駆動する先行性を強化する。
エピポーラ・エラーマップと組み合わせたビデオセグメンテーションは、細い構造を忠実に追従するオブジェクトレベルマスクを生成する。
(i)一貫した映像深度を鋭くする物体深度損失を誘導し、
(II) 骨格型サンプリングとマスクガイドによる再同定をサポートし, 信頼性, 総合的な2次元トラックを製作する。
仮想視深度損失はフローターを除去し、足場投射損失は運動ノードをトラックに結び付け、微細な幾何学とコヒーレントな動きを保存する。
得られたシステムは従来のモノラルな動的シーン再構成手法を超越し、視覚的に優れたレンダリングを提供する
関連論文リスト
- Tessellation GS: Neural Mesh Gaussians for Robust Monocular Reconstruction of Dynamic Objects [41.62908563782648]
3D Gaussian Splatting (GS) は、ポーズされた画像列から高度に写実的なシーン再構築を可能にするが、視点外挿に苦慮する。
本稿では,メッシュ面に固定された2次元GS構造を持つテッセルレーションGSを提案する。
本手法は,2次元ガウス関数を局所領域に制約し,メッシュ面上の階層的ニューラル特徴を通じてそれらの特性を推定する。
論文 参考訳(メタデータ) (2025-12-08T10:16:14Z) - Large-scale visual SLAM for in-the-wild videos [28.58692815339531]
カジュアルビデオから3D再構成を改善するために,ロバストなパイプラインを導入する。
我々は近年の深部視覚計測法を基礎にしているが、いくつかの点で頑健性を高めている。
各種環境におけるオンラインビデオの大規模連続3Dモデルについて紹介する。
論文 参考訳(メタデータ) (2025-04-29T07:37:51Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - SMORE: Simultaneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - Decoupling Dynamic Monocular Videos for Dynamic View Synthesis [50.93409250217699]
動的モノクロビデオからの動的ビュー合成の課題を教師なしで解決する。
具体的には、動的物体の運動を物体の動きとカメラの動きに分離し、教師なし表面の整合性およびパッチベースのマルチビュー制約によって規則化する。
論文 参考訳(メタデータ) (2023-04-04T11:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。