論文の概要: DynaGSLAM: Real-Time Gaussian-Splatting SLAM for Online Rendering, Tracking, Motion Predictions of Moving Objects in Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2503.11979v1
- Date: Sat, 15 Mar 2025 03:20:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 14:56:57.646576
- Title: DynaGSLAM: Real-Time Gaussian-Splatting SLAM for Online Rendering, Tracking, Motion Predictions of Moving Objects in Dynamic Scenes
- Title(参考訳): DynaGSLAM: 動的シーンにおける動き物体のオンラインレンダリング、追跡、動き予測のためのリアルタイムガウス投射SLAM
- Authors: Runfa Blark Li, Mahdi Shaghaghi, Keito Suzuki, Xinshuang Liu, Varun Moparthi, Bang Du, Walker Curtis, Martin Renschler, Ki Myung Brian Lee, Nikolay Atanasov, Truong Nguyen,
- Abstract要約: 高速なオンラインGSレンダリング, トラッキング, 動画像の動的シーンにおける移動物体の動作予測を実現する, 初のリアルタイムGS-SLAM "DynaGSLAM'" を提案する。
我々のDynaGSLAMは3つの動的実データセット上でSOTA静的および"Anti'' dynamic GS-SLAMより優れている。
- 参考スコア(独自算出の注目度): 14.328429333301274
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Simultaneous Localization and Mapping (SLAM) is one of the most important environment-perception and navigation algorithms for computer vision, robotics, and autonomous cars/drones. Hence, high quality and fast mapping becomes a fundamental problem. With the advent of 3D Gaussian Splatting (3DGS) as an explicit representation with excellent rendering quality and speed, state-of-the-art (SOTA) works introduce GS to SLAM. Compared to classical pointcloud-SLAM, GS-SLAM generates photometric information by learning from input camera views and synthesize unseen views with high-quality textures. However, these GS-SLAM fail when moving objects occupy the scene that violate the static assumption of bundle adjustment. The failed updates of moving GS affects the static GS and contaminates the full map over long frames. Although some efforts have been made by concurrent works to consider moving objects for GS-SLAM, they simply detect and remove the moving regions from GS rendering ("anti'' dynamic GS-SLAM), where only the static background could benefit from GS. To this end, we propose the first real-time GS-SLAM, "DynaGSLAM'', that achieves high-quality online GS rendering, tracking, motion predictions of moving objects in dynamic scenes while jointly estimating accurate ego motion. Our DynaGSLAM outperforms SOTA static & "Anti'' dynamic GS-SLAM on three dynamic real datasets, while keeping speed and memory efficiency in practice.
- Abstract(参考訳): 同時局在マッピング(SLAM)は、コンピュータビジョン、ロボティクス、自律走行車/ドローンにとって最も重要な環境認識およびナビゲーションアルゴリズムの1つである。
したがって、高品質で高速なマッピングが根本的な問題となる。
3D Gaussian Splatting(3DGS)がレンダリング品質とスピードの優れた明示的な表現として登場したことで、最先端(SOTA)の作業は、GSをSLAMに導入した。
古典的なポイントクラウドSLAMと比較して、GS-SLAMは入力カメラビューから学習し、高品質なテクスチャで見えないビューを合成することによって、測光情報を生成する。
しかし、これらのGS-SLAMは、移動物体がバンドル調整の静的仮定に反するシーンを占有するときに失敗する。
移動GSの更新が失敗したことは、静的GSに影響を与え、長いフレーム上のフルマップを汚染する。
GS-SLAMの移動物体を同時に検討する試みは行われているが、静的背景のみをGSの恩恵を受けるGSレンダリング(anti''' dynamic GS-SLAM)から移動領域を検出・除去する作業は行われている。
我々のDynaGSLAMは、3つの動的な実データに対してSOTAの静的および"Anti''の動的GS-SLAMより優れており、実際は速度とメモリ効率を保っている。
関連論文リスト
- GSFF-SLAM: 3D Semantic Gaussian Splatting SLAM via Feature Field [18.520468059548865]
GSFF-SLAMは3次元ガウススプラッティングに基づく新しい意味論的SLAMシステムである。
提案手法は, 様々な2次元先行情報, 特にスパース信号と雑音信号を用いた意味的再構成を支援する。
2D基底真理を利用する場合、GSFF-SLAMは95.03% mIoUで最先端のセマンティックセグメンテーション性能を達成する。
論文 参考訳(メタデータ) (2025-04-28T01:21:35Z) - Embracing Dynamics: Dynamics-aware 4D Gaussian Splatting SLAM [0.0]
D4DGS-SLAMは動的環境のための4DGSマップ表現に基づく最初のSLAMである。
時間次元をシーン表現に組み込むことで、D4DGS-SLAMは動的シーンの高品質な再構成を可能にする。
提案手法は,カメラのポーズトラッキングとマップの品質の両方において,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-07T08:56:35Z) - WildGS-SLAM: Monocular Gaussian Splatting SLAM in Dynamic Environments [48.51530726697405]
WildGS-SLAMは、動的環境を扱うために設計された、堅牢で効率的な単分子RGB SLAMシステムである。
本研究では,浅い多層パーセプトロンとDINOv2の特徴によって予測される不確実性マップを導入し,追跡とマッピングの両方において動的物体除去を誘導する。
その結果,WildGS-SLAMの動的環境における性能は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-04-04T19:19:40Z) - GARAD-SLAM: 3D GAussian splatting for Real-time Anti Dynamic SLAM [9.060527946525381]
動的シーンに適したリアルタイム3DGSベースのSLAMシステムであるGARAD-SLAMを提案する。
追跡の面では、ガウスの動的セグメンテーションを直接実行し、それらをフロントエンドにマッピングして動的点ラベルを得る。
実世界のデータセットを用いた結果から,本手法はベースライン手法と比較して,トラッキングに競争力があることが示された。
論文 参考訳(メタデータ) (2025-02-05T14:44:17Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - MGSO: Monocular Real-time Photometric SLAM with Efficient 3D Gaussian Splatting [8.577428137443246]
本稿では,光メトリックSLAMと3DGSを統合した新しいリアルタイムSLAMシステムであるMonocular GSOを提案する。
本システムでは, 品質, メモリ効率, 速度のバランスを保ち, 再現性を向上する。
現代のシステムを超えているだけでなく、ラップトップのハードウェアの性能も維持していることを示す実験も行っています。
論文 参考訳(メタデータ) (2024-09-19T19:07:05Z) - GS-Net: Generalizable Plug-and-Play 3D Gaussian Splatting Module [19.97023389064118]
粗いSfM点雲からガウス楕円体を密度化する3DGSモジュールであるGS-Netを提案する。
実験により、GS-Netを3DGSに適用すると、従来の視点では2.08dB、新しい視点では1.86dBのPSNR改善が得られることが示された。
論文 参考訳(メタデータ) (2024-09-17T16:03:19Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - A Survey on 3D Gaussian Splatting [51.96747208581275]
3D Gaussian splatting (GS) は、明示的な放射場とコンピュータグラフィックスの変換技術として登場した。
本稿では,3D GSの領域における最近の発展と重要な貢献について,初めて体系的に概説する。
前例のないレンダリング速度を実現することで、3D GSは、仮想現実からインタラクティブメディアなど、数多くのアプリケーションを開くことができる。
論文 参考訳(メタデータ) (2024-01-08T13:42:59Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM [2.9822184411723645]
DynaSLAM IIは、ステレオおよびRGB-D構成のための視覚的SLAMシステムであり、マルチオブジェクト追跡機能を密に統合している。
動的物体の追跡はシーン理解のための豊富な手がかりを提供するだけでなく、カメラ追跡にも有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T15:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。