論文の概要: Dynamic Visual SLAM using a General 3D Prior
- arxiv url: http://arxiv.org/abs/2512.06868v1
- Date: Sun, 07 Dec 2025 14:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.566283
- Title: Dynamic Visual SLAM using a General 3D Prior
- Title(参考訳): 汎用3Dプリエントを用いた動的視覚SLAM
- Authors: Xingguang Zhong, Liren Jin, Marija Popović, Jens Behley, Cyrill Stachniss,
- Abstract要約: 動的シーンにおけるカメラのポーズを頑健に推定できる新しいモノクロ視覚SLAMシステムを提案する。
具体的には,動的領域を正確にフィルタするフィードフォワード再構成モデルを提案する。
- 参考スコア(独自算出の注目度): 27.487134809452147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable incremental estimation of camera poses and 3D reconstruction is key to enable various applications including robotics, interactive visualization, and augmented reality. However, this task is particularly challenging in dynamic natural environments, where scene dynamics can severely deteriorate camera pose estimation accuracy. In this work, we propose a novel monocular visual SLAM system that can robustly estimate camera poses in dynamic scenes. To this end, we leverage the complementary strengths of geometric patch-based online bundle adjustment and recent feed-forward reconstruction models. Specifically, we propose a feed-forward reconstruction model to precisely filter out dynamic regions, while also utilizing its depth prediction to enhance the robustness of the patch-based visual SLAM. By aligning depth prediction with estimated patches from bundle adjustment, we robustly handle the inherent scale ambiguities of the batch-wise application of the feed-forward reconstruction model.
- Abstract(参考訳): カメラのポーズと3D再構成の信頼性の高いインクリメンタルな推定は、ロボット工学、インタラクティブな視覚化、拡張現実など、さまざまな応用を可能にする鍵となる。
しかし、この課題は、シーンダイナミクスがカメラの精度を著しく劣化させるような、動的な自然環境において特に困難である。
本研究では,動的シーンにおけるカメラのポーズを頑健に推定できる新しいモノクロ視覚SLAMシステムを提案する。
この目的のために、幾何パッチベースのオンラインバンドル調整と最近のフィードフォワード再構成モデルの相補的な長所を利用する。
具体的には、動的領域を正確にフィルタリングするフィードフォワード再構成モデルを提案するとともに、その深さ予測を利用してパッチベースの視覚SLAMの堅牢性を高める。
バンドル調整から推定したパッチと深度予測を一致させることで、フィードフォワード再構成モデルのバッチワイズ適用のスケールのあいまいさを頑健に処理する。
関連論文リスト
- 4D3R: Motion-Aware Neural Reconstruction and Rendering of Dynamic Scenes from Monocular Videos [52.89084603734664]
静的および動的コンポーネントを2段階のアプローチで分離する,ポーズフリーな動的ニューラルネットワークレンダリングフレームワークである4D3Rを提案する。
提案手法は最先端手法よりも最大1.8dBPSNRの改善を実現する。
論文 参考訳(メタデータ) (2025-11-07T13:25:50Z) - PAGE-4D: Disentangled Pose and Geometry Estimation for 4D Perception [39.819707648812944]
PAGE-4Dはフィードフォワードモデルで、後処理なしでVGGTを動的シーンに拡張する。
ダイナミックス対応マスクを予測することで、静的および動的情報をアンタングルする。
実験の結果、PAGE-4Dは動的シナリオにおいて元のVGGTよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-10-20T14:17:16Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - Back on Track: Bundle Adjustment for Dynamic Scene Reconstruction [86.099855111676]
従来のSLAMシステムは、カジュアルなビデオでよく見られる非常にダイナミックなシーンと格闘する。
この研究は3Dポイントトラッカーを利用して、カメラによる動的物体の動きからカメラによる動きを分離する。
私たちのフレームワークは、従来のSLAM -- バンドル調整 -- の中核を、堅牢な学習ベースの3Dトラッカーフロントエンドと組み合わせています。
論文 参考訳(メタデータ) (2025-04-20T07:29:42Z) - SMORE: Simultaneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Visual-Inertial Multi-Instance Dynamic SLAM with Object-level
Relocalisation [14.302118093865849]
密結合型ビジュアル・慣性オブジェクトレベルのマルチインスタンス動的SLAMシステムを提案する。
カメラのポーズ、速度、IMUバイアスを強く最適化し、環境の高密度な3D再構成オブジェクトレベルマップを構築することができる。
論文 参考訳(メタデータ) (2022-08-08T17:13:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。