論文の概要: NGD-SLAM: Towards Real-Time SLAM for Dynamic Environments without GPU
- arxiv url: http://arxiv.org/abs/2405.07392v1
- Date: Sun, 12 May 2024 23:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 15:14:45.275932
- Title: NGD-SLAM: Towards Real-Time SLAM for Dynamic Environments without GPU
- Title(参考訳): NGD-SLAM:GPUのない動的環境のためのリアルタイムSLAMを目指して
- Authors: Yuhao Zhang,
- Abstract要約: 本稿では,マスク予測機構を導入して,CPU上でのリアルタイム性能を実現する動的環境のための新しい視覚SLAMシステムを提案する。
さらに、デュアルステージの光フロー追跡手法を導入し、光フローとORBのハイブリッドな使用法を採用した。
最先端の手法と比較して、ハードウェアアクセラレーションなしで1台のラップトップCPU上で56fpsのトラッキングフレーム速度を実現しつつ、動的環境における高いローカライズ精度を維持する。
- 参考スコア(独自算出の注目度): 4.970590187498935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and robust camera tracking in dynamic environments presents a significant challenge for visual SLAM (Simultaneous Localization and Mapping). Recent progress in this field often involves the use of deep learning techniques to generate mask for dynamic objects, which usually require GPUs to operate in real-time (30 fps). Therefore, this paper proposes a novel visual SLAM system for dynamic environments that obtains real-time performance on CPU by incorporating a mask prediction mechanism, which allows the deep learning method and the camera tracking to run entirely in parallel at different frequencies such that neither waits for the result from the other. Based on this, it further introduces a dual-stage optical flow tracking approach and employs a hybrid usage of optical flow and ORB features, which significantly enhance the efficiency and robustness of the system. Compared with state-of-the-art methods, this system maintains high localization accuracy in dynamic environments while achieving a tracking frame rate of 56 fps on a single laptop CPU without any hardware acceleration, thus proving that deep learning methods are still feasible for dynamic SLAM even without GPU support. Based on the available information, this is the first SLAM system to achieve this.
- Abstract(参考訳): ダイナミック環境における高精度でロバストなカメラトラッキングは、視覚SLAM(Simultaneous Localization and Mapping)にとって大きな課題となる。
この分野での最近の進歩は、動的オブジェクトのマスクを生成するためにディープラーニング技術を使用することが多い。
そこで本稿では,CPU上でのリアルタイムパフォーマンスを実現する動的環境のための新しい視覚SLAMシステムを提案する。
これに基づいて、さらに2段階の光フロー追跡手法を導入し、光学フローとORBのハイブリッド利用を採用し、システムの効率性とロバスト性を大幅に向上させる。
最先端の手法と比較して、ハードウェアアクセラレーションなしで1台のラップトップCPU上で56fpsのトラッキングフレーム率を実現しつつ、動的環境における高いローカライズ精度を維持し、GPUサポートなしでもディープラーニング手法が動的SLAMに対してまだ実現可能であることを証明した。
利用可能な情報に基づいて、これが最初に実現したSLAMシステムである。
関連論文リスト
- DK-SLAM: Monocular Visual SLAM with Deep Keypoint Learning, Tracking and Loop-Closing [13.50980509878613]
公開されているデータセットに対する実験的評価は、DK-SLAMが従来のSLAMシステムと学習ベースのSLAMシステムより優れていることを示している。
本システムでは,キーポイント抽出ネットワークの学習を最適化するために,モデル非依存メタラーニング(MAML)戦略を採用している。
累積的な位置決め誤差を軽減するため、DK-SLAMはループ閉鎖検出にバイナリ機能を利用する新しいオンライン学習モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-01-17T12:08:30Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - DH-PTAM: A Deep Hybrid Stereo Events-Frames Parallel Tracking And Mapping System [1.443696537295348]
本稿では,視覚的並列追跡・マッピング(PTAM)システムに対するロバストなアプローチを提案する。
提案手法は,異種多モード視覚センサの強度を統一参照フレームに組み合わせたものである。
私たちの実装のリサーチベースのPython APIはGitHubで公開されています。
論文 参考訳(メタデータ) (2023-06-02T19:52:13Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - D$^3$FlowSLAM: Self-Supervised Dynamic SLAM with Flow Motion Decomposition and DINO Guidance [61.14088096348959]
本稿では,動的シーンにおいて動的コンポーネントを正確に識別しながら頑健に動作する自己教師型ディープSLAM法を提案する。
本稿では,この表現に基づく動的更新モジュールを提案し,動的シナリオに優れた高密度SLAMシステムの開発を行う。
論文 参考訳(メタデータ) (2022-07-18T17:47:39Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。