論文の概要: Gaussian Mapping for Evolving Scenes
- arxiv url: http://arxiv.org/abs/2506.06909v1
- Date: Sat, 07 Jun 2025 20:04:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.561151
- Title: Gaussian Mapping for Evolving Scenes
- Title(参考訳): 進化するシーンのためのガウス写像
- Authors: Vladimir Yugay, Thies Kersten, Luca Carlone, Theo Gevers, Martin R. Oswald, Lukas Schmid,
- Abstract要約: 本稿では,最新の変化を反映して連続的に3次元表現を更新する動的シーン適応機構を提案する。
また,できるだけ多くの情報を保存しながら,時代遅れの観測を破棄する新しい管理機構を提案する。
合成, 実世界の両方のデータセット上でガウス写像(GaME)を評価し, 美術品の状態よりも高精度であることが確認された。
- 参考スコア(独自算出の注目度): 33.02977341856557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mapping systems with novel view synthesis (NVS) capabilities are widely used in computer vision, with augmented reality, robotics, and autonomous driving applications. Most notably, 3D Gaussian Splatting-based systems show high NVS performance; however, many current approaches are limited to static scenes. While recent works have started addressing short-term dynamics (motion within the view of the camera), long-term dynamics (the scene evolving through changes out of view) remain less explored. To overcome this limitation, we introduce a dynamic scene adaptation mechanism that continuously updates the 3D representation to reflect the latest changes. In addition, since maintaining geometric and semantic consistency remains challenging due to stale observations disrupting the reconstruction process, we propose a novel keyframe management mechanism that discards outdated observations while preserving as much information as possible. We evaluate Gaussian Mapping for Evolving Scenes (GaME) on both synthetic and real-world datasets and find it to be more accurate than the state of the art.
- Abstract(参考訳): 新しいビュー合成(NVS)機能を持つマッピングシステムは、拡張現実、ロボティクス、自律運転アプリケーションなど、コンピュータビジョンで広く利用されている。
3D Gaussian Splattingベースのシステムは高いNVS性能を示すが、現在の多くのアプローチは静的シーンに限られている。
最近の研究は、短期的なダイナミクス(カメラの視野内の動き)に対処し始めているが、長期的なダイナミクス(視点外の変化を通して進化するシーン)はいまだ研究されていない。
この制限を克服するために,最新の変化を反映して連続的に3次元表現を更新する動的シーン適応機構を導入する。
また, 復元過程を乱すため, 幾何的・意味的整合性を維持することは依然として困難であるため, できるだけ多くの情報を保存しつつ, 古い観測を破棄する新しいキーフレーム管理機構を提案する。
我々は,合成および実世界の両方のデータセット上でガウス写像(GaME)を評価し,その精度が最先端のものよりも高いことを示した。
関連論文リスト
- Endo3R: Unified Online Reconstruction from Dynamic Monocular Endoscopic Video [35.241054116681426]
Endo3Rは、単眼手術ビデオからのオンラインスケール一貫性再構築のための統合された3D基盤モデルである。
我々のモデルは,オフライン最適化なしで,グローバルに整列したポイントマップ,スケール一貫性のあるビデオ深度,カメラパラメータを予測してタスクを統一する。
論文 参考訳(メタデータ) (2025-04-04T06:05:22Z) - 3D Gaussian Splatting against Moving Objects for High-Fidelity Street Scene Reconstruction [1.2603104712715607]
本稿では,ダイナミックストリートシーン再構築のための新しい3次元ガウス点分布法を提案する。
提案手法では,高忠実度な静的シーンを保存しながらオブジェクトの移動を除去する。
実験により, 大規模動的環境における再現性の向上, レンダリング性能の向上, 適応性の向上が示された。
論文 参考訳(メタデータ) (2025-03-15T05:41:59Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Modeling Ambient Scene Dynamics for Free-view Synthesis [31.233859111566613]
モノクルキャプチャから周囲のシーンを動的に自由視点で合成する手法を提案する。
本手法は, 複雑な静的シーンを忠実に再構築できる3次元ガウス散乱(3DGS)の最近の進歩に基づいている。
論文 参考訳(メタデータ) (2024-06-13T17:59:11Z) - GaussianPrediction: Dynamic 3D Gaussian Prediction for Motion Extrapolation and Free View Synthesis [71.24791230358065]
動的シーンモデリングと将来のシナリオ合成により,3次元ガウス表現を実現する新しいフレームワークを提案する。
GaussianPredictionは、ダイナミックなシーンのビデオ観察を使用して、あらゆる視点から将来の状態を予測できる。
本フレームワークは,合成データセットと実世界のデータセットの両方で優れた性能を示し,将来の環境の予測とレンダリングの有効性を示す。
論文 参考訳(メタデータ) (2024-05-30T06:47:55Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。