論文の概要: NGD-SLAM: Towards Real-Time Dynamic SLAM without GPU
- arxiv url: http://arxiv.org/abs/2405.07392v3
- Date: Mon, 16 Jun 2025 21:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.022494
- Title: NGD-SLAM: Towards Real-Time Dynamic SLAM without GPU
- Title(参考訳): NGD-SLAM:GPUなしでリアルタイム動的SLAMを目指す
- Authors: Yuhao Zhang, Mihai Bujanca, Mikel Luján,
- Abstract要約: 本稿では,CPU上でのみ動作するリアルタイム動的SLAMシステムを提案する。
本稿では,カメラ追跡と深層学習に基づくマスキングを分離するマスク伝搬機構を提案する。
従来の手法と比較して,ラップトップCPU上での追跡フレームレート60FPSを実現しつつ,動的環境における高精度なローカライゼーションを実現する。
- 参考スコア(独自算出の注目度): 4.959552873584984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many existing visual SLAM methods can achieve high localization accuracy in dynamic environments by leveraging deep learning to mask moving objects. However, these methods incur significant computational overhead as the camera tracking needs to wait for the deep neural network to generate mask at each frame, and they typically require GPUs for real-time operation, which restricts their practicality in real-world robotic applications. Therefore, this paper proposes a real-time dynamic SLAM system that runs exclusively on a CPU. Our approach incorporates a mask propagation mechanism that decouples camera tracking and deep learning-based masking for each frame. We also introduce a hybrid tracking strategy that integrates ORB features with optical flow methods, enhancing both robustness and efficiency by selectively allocating computational resources to input frames. Compared to previous methods, our system maintains high localization accuracy in dynamic environments while achieving a tracking frame rate of 60 FPS on a laptop CPU. These results demonstrate the feasibility of utilizing deep learning for dynamic SLAM without GPU support. Since most existing dynamic SLAM systems are not open-source, we make our code publicly available at: https://github.com/yuhaozhang7/NGD-SLAM
- Abstract(参考訳): 多くの既存の視覚的SLAM法は、深層学習を利用して移動物体を隠蔽することにより、動的環境における高精度なローカライゼーションを実現することができる。
しかし、これらの手法は、ディープニューラルネットワークが各フレームでマスクを生成するのを待つ必要があるため、計算上のオーバーヘッドが大きい。
そこで本研究では,CPU上でのみ動作するリアルタイム動的SLAMシステムを提案する。
本手法では,フレーム毎にカメラ追跡と深層学習に基づくマスキングを分離するマスク伝搬機構を取り入れた。
また,ORB機能を光学フロー法と統合し,計算資源を入力フレームに選択的に割り当てることにより,ロバスト性と効率性を両立させるハイブリッドトラッキング戦略を導入する。
従来の手法と比較して,ラップトップCPU上での追跡フレームレート60FPSを実現しつつ,動的環境における高精度なローカライゼーションを実現する。
これらの結果は,GPUサポートなしの動的SLAMにディープラーニングを活用する可能性を示している。
ほとんどの既存の動的SLAMシステムはオープンソースではないので、コードはhttps://github.com/yuhaozhang7/NGD-SLAMで公開しています。
関連論文リスト
- LEG-SLAM: Real-Time Language-Enhanced Gaussian Splatting for SLAM [0.0]
LEG-SLAMは、最適化されたガウススプラッティング実装と視覚言語の特徴抽出を融合した新しいアプローチである。
提案手法は,高品質なフォトリアリスティック画像とセマンティックラベル付きシーンマップを同時に生成する。
自律型ロボティクス、拡張現実、その他の対話型ドメインへの潜在的な応用により、LEG-SLAMはリアルタイムなセマンティック3DガウスベースのSLAMにおける重要な一歩である。
論文 参考訳(メタデータ) (2025-06-03T16:51:59Z) - Towards Low-Latency Event Stream-based Visual Object Tracking: A Slow-Fast Approach [32.91982063297922]
我々は,SFTrackと呼ばれる,異なる運用要件に柔軟に対応する新しいスローファストトラッキングパラダイムを提案する。
提案するフレームワークは2つの補完モード,すなわち,十分な計算資源を持つシナリオを対象とした高精度なスロートラッカと,レイテンシを意識したリソース制約のある環境に適した効率的な高速トラッカをサポートする。
このフレームワークは,まず高時間分解能イベントストリームからグラフベースの表現学習を行い,学習したグラフ構造化情報を2つのFlashAttentionベースのビジョンバックボーンに統合する。
論文 参考訳(メタデータ) (2025-05-19T09:37:23Z) - WildGS-SLAM: Monocular Gaussian Splatting SLAM in Dynamic Environments [48.51530726697405]
WildGS-SLAMは、動的環境を扱うために設計された、堅牢で効率的な単分子RGB SLAMシステムである。
本研究では,浅い多層パーセプトロンとDINOv2の特徴によって予測される不確実性マップを導入し,追跡とマッピングの両方において動的物体除去を誘導する。
その結果,WildGS-SLAMの動的環境における性能は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-04-04T19:19:40Z) - GeoFlow-SLAM: A Robust Tightly-Coupled RGBD-Inertial Fusion SLAM for Dynamic Legged Robotics [12.041115472752594]
GeoFlow-SLAMは、高ダイナミック環境で動作する脚ロボットのための頑丈で効果的なRGBD慣性SLAMである。
提案アルゴリズムは,収集した脚ロボットとオープンソースデータセットを用いて最先端のアルゴリズムを実現する。
論文 参考訳(メタデータ) (2025-03-18T13:35:49Z) - DK-SLAM: Monocular Visual SLAM with Deep Keypoint Learning, Tracking and Loop-Closing [13.50980509878613]
公開されているデータセットに対する実験的評価は、DK-SLAMが従来のSLAMシステムと学習ベースのSLAMシステムより優れていることを示している。
本システムでは,キーポイント抽出ネットワークの学習を最適化するために,モデル非依存メタラーニング(MAML)戦略を採用している。
累積的な位置決め誤差を軽減するため、DK-SLAMはループ閉鎖検出にバイナリ機能を利用する新しいオンライン学習モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-01-17T12:08:30Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - DH-PTAM: A Deep Hybrid Stereo Events-Frames Parallel Tracking And Mapping System [1.443696537295348]
本稿では,視覚的並列追跡・マッピング(PTAM)システムに対するロバストなアプローチを提案する。
提案手法は,異種多モード視覚センサの強度を統一参照フレームに組み合わせたものである。
私たちの実装のリサーチベースのPython APIはGitHubで公開されています。
論文 参考訳(メタデータ) (2023-06-02T19:52:13Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - D$^3$FlowSLAM: Self-Supervised Dynamic SLAM with Flow Motion Decomposition and DINO Guidance [61.14088096348959]
本稿では,動的シーンにおいて動的コンポーネントを正確に識別しながら頑健に動作する自己教師型ディープSLAM法を提案する。
本稿では,この表現に基づく動的更新モジュールを提案し,動的シナリオに優れた高密度SLAMシステムの開発を行う。
論文 参考訳(メタデータ) (2022-07-18T17:47:39Z) - Hierarchical Neural Dynamic Policies [50.969565411919376]
我々は,高次元画像入力から学習しながら,実世界の動的タスクの非表示構成への一般化の課題に取り組む。
階層型ニューラル・ダイナミック・ポリシー(H-NDP)と呼ばれる階層型ディープ・ポリシー・ラーニング・フレームワークを用いる。
H-NDPは、状態空間の小さな領域における局所力学系に基づくポリシーを学習することでカリキュラムを形成する。
我々は,H-NDPが模倣と強化学習の双方と容易に統合され,最先端の成果が得られることを示した。
論文 参考訳(メタデータ) (2021-07-12T17:59:58Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - OV$^{2}$SLAM : A Fully Online and Versatile Visual SLAM for Real-Time
Applications [59.013743002557646]
OV$2$SLAMは、モノクロカメラとステレオカメラの両方のセットアップ、さまざまなマップスケール、フレームレートを、数ヘルツから数百まで、完全にオンラインのアルゴリズムである。
コミュニティの利益のために、ソースコードを urlhttps://github.com/ov2slam/ov2slam でリリースします。
論文 参考訳(メタデータ) (2021-02-08T08:39:23Z) - DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM [2.9822184411723645]
DynaSLAM IIは、ステレオおよびRGB-D構成のための視覚的SLAMシステムであり、マルチオブジェクト追跡機能を密に統合している。
動的物体の追跡はシーン理解のための豊富な手がかりを提供するだけでなく、カメラ追跡にも有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T15:25:30Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z) - DXSLAM: A Robust and Efficient Visual SLAM System with Deep Features [5.319556638040589]
本稿では、深層畳み込みニューラルネットワーク(CNN)による特徴抽出を、現代のSLAMフレームワークにシームレスに組み込むことができることを示す。
提案システムでは,最新のCNNを用いて各画像フレーム内のキーポイントを検出し,キーポイント記述子だけでなく,全体像のグローバル記述子も提供する。
論文 参考訳(メタデータ) (2020-08-12T16:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。