論文の概要: DynaGSLAM: Real-Time Gaussian-Splatting SLAM for Online Rendering, Tracking, Motion Predictions of Moving Objects in Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2503.11979v1
- Date: Sat, 15 Mar 2025 03:20:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:31:41.355336
- Title: DynaGSLAM: Real-Time Gaussian-Splatting SLAM for Online Rendering, Tracking, Motion Predictions of Moving Objects in Dynamic Scenes
- Title(参考訳): DynaGSLAM: 動的シーンにおける動き物体のオンラインレンダリング、追跡、動き予測のためのリアルタイムガウス投射SLAM
- Authors: Runfa Blark Li, Mahdi Shaghaghi, Keito Suzuki, Xinshuang Liu, Varun Moparthi, Bang Du, Walker Curtis, Martin Renschler, Ki Myung Brian Lee, Nikolay Atanasov, Truong Nguyen,
- Abstract要約: 高速なオンラインGSレンダリング, トラッキング, 動画像の動的シーンにおける移動物体の動作予測を実現する, 初のリアルタイムGS-SLAM "DynaGSLAM'" を提案する。
我々のDynaGSLAMは3つの動的実データセット上でSOTA静的および"Anti'' dynamic GS-SLAMより優れている。
- 参考スコア(独自算出の注目度): 14.328429333301274
- License:
- Abstract: Simultaneous Localization and Mapping (SLAM) is one of the most important environment-perception and navigation algorithms for computer vision, robotics, and autonomous cars/drones. Hence, high quality and fast mapping becomes a fundamental problem. With the advent of 3D Gaussian Splatting (3DGS) as an explicit representation with excellent rendering quality and speed, state-of-the-art (SOTA) works introduce GS to SLAM. Compared to classical pointcloud-SLAM, GS-SLAM generates photometric information by learning from input camera views and synthesize unseen views with high-quality textures. However, these GS-SLAM fail when moving objects occupy the scene that violate the static assumption of bundle adjustment. The failed updates of moving GS affects the static GS and contaminates the full map over long frames. Although some efforts have been made by concurrent works to consider moving objects for GS-SLAM, they simply detect and remove the moving regions from GS rendering ("anti'' dynamic GS-SLAM), where only the static background could benefit from GS. To this end, we propose the first real-time GS-SLAM, "DynaGSLAM'', that achieves high-quality online GS rendering, tracking, motion predictions of moving objects in dynamic scenes while jointly estimating accurate ego motion. Our DynaGSLAM outperforms SOTA static & "Anti'' dynamic GS-SLAM on three dynamic real datasets, while keeping speed and memory efficiency in practice.
- Abstract(参考訳): 同時局在マッピング(SLAM)は、コンピュータビジョン、ロボティクス、自律走行車/ドローンにとって最も重要な環境認識およびナビゲーションアルゴリズムの1つである。
したがって、高品質で高速なマッピングが根本的な問題となる。
3D Gaussian Splatting(3DGS)がレンダリング品質とスピードの優れた明示的な表現として登場したことで、最先端(SOTA)の作業は、GSをSLAMに導入した。
古典的なポイントクラウドSLAMと比較して、GS-SLAMは入力カメラビューから学習し、高品質なテクスチャで見えないビューを合成することによって、測光情報を生成する。
しかし、これらのGS-SLAMは、移動物体がバンドル調整の静的仮定に反するシーンを占有するときに失敗する。
移動GSの更新が失敗したことは、静的GSに影響を与え、長いフレーム上のフルマップを汚染する。
GS-SLAMの移動物体を同時に検討する試みは行われているが、静的背景のみをGSの恩恵を受けるGSレンダリング(anti''' dynamic GS-SLAM)から移動領域を検出・除去する作業は行われている。
我々のDynaGSLAMは、3つの動的な実データに対してSOTAの静的および"Anti''の動的GS-SLAMより優れており、実際は速度とメモリ効率を保っている。
関連論文リスト
- GARAD-SLAM: 3D GAussian splatting for Real-time Anti Dynamic SLAM [9.060527946525381]
動的シーンに適したリアルタイム3DGSベースのSLAMシステムであるGARAD-SLAMを提案する。
追跡の面では、ガウスの動的セグメンテーションを直接実行し、それらをフロントエンドにマッピングして動的点ラベルを得る。
実世界のデータセットを用いた結果から,本手法はベースライン手法と比較して,トラッキングに競争力があることが示された。
論文 参考訳(メタデータ) (2025-02-05T14:44:17Z) - EGSRAL: An Enhanced 3D Gaussian Splatting based Renderer with Automated Labeling for Large-Scale Driving Scene [19.20846992699852]
EGSRALは3D GSベースの手法で、追加のアノテーションを使わずに画像のトレーニングにのみ依存する。
EGSRALは、動的オブジェクトと静的バックグラウンドの両方をモデル化する3D GSの機能を強化する。
また,大規模な複雑なシーンをレンダリングする際の視点問題に対処するために,バニラ3D GSのグルーピング戦略を提案する。
論文 参考訳(メタデータ) (2024-12-20T04:21:54Z) - MGSO: Monocular Real-time Photometric SLAM with Efficient 3D Gaussian Splatting [8.577428137443246]
本稿では,光メトリックSLAMと3DGSを統合した新しいリアルタイムSLAMシステムであるMonocular GSOを提案する。
本システムでは, 品質, メモリ効率, 速度のバランスを保ち, 再現性を向上する。
現代のシステムを超えているだけでなく、ラップトップのハードウェアの性能も維持していることを示す実験も行っています。
論文 参考訳(メタデータ) (2024-09-19T19:07:05Z) - GS-Net: Generalizable Plug-and-Play 3D Gaussian Splatting Module [19.97023389064118]
粗いSfM点雲からガウス楕円体を密度化する3DGSモジュールであるGS-Netを提案する。
実験により、GS-Netを3DGSに適用すると、従来の視点では2.08dB、新しい視点では1.86dBのPSNR改善が得られることが示された。
論文 参考訳(メタデータ) (2024-09-17T16:03:19Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - A Survey on 3D Gaussian Splatting [51.96747208581275]
3D Gaussian splatting (GS) は、明示的な放射場とコンピュータグラフィックスの変換技術として登場した。
本稿では,3D GSの領域における最近の発展と重要な貢献について,初めて体系的に概説する。
前例のないレンダリング速度を実現することで、3D GSは、仮想現実からインタラクティブメディアなど、数多くのアプリケーションを開くことができる。
論文 参考訳(メタデータ) (2024-01-08T13:42:59Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM [2.9822184411723645]
DynaSLAM IIは、ステレオおよびRGB-D構成のための視覚的SLAMシステムであり、マルチオブジェクト追跡機能を密に統合している。
動的物体の追跡はシーン理解のための豊富な手がかりを提供するだけでなく、カメラ追跡にも有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T15:25:30Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。