論文の概要: Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios
- arxiv url: http://arxiv.org/abs/2210.04562v1
- Date: Mon, 10 Oct 2022 11:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 17:54:53.189131
- Title: Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios
- Title(参考訳): 動的シナリオのリアルタイム意味マッピングを実現する視覚SLAMにおける検出・追跡・予測
- Authors: Xingyu Chen, Jianru Xue, Jianwu Fang, Yuxin Pan and Nanning Zheng
- Abstract要約: RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
- 参考スコア(独自算出の注目度): 70.70421502784598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a lightweight system, RDS-SLAM, based on ORB-SLAM2,
which can accurately estimate poses and build semantic maps at object level for
dynamic scenarios in real time using only one commonly used Intel Core i7 CPU.
In RDS-SLAM, three major improvements, as well as major architectural
modifications, are proposed to overcome the limitations of ORB-SLAM2. Firstly,
it adopts a lightweight object detection neural network in key frames.
Secondly, an efficient tracking and prediction mechanism is embedded into the
system to remove the feature points belonging to movable objects in all
incoming frames. Thirdly, a semantic octree map is built by probabilistic
fusion of detection and tracking results, which enables a robot to maintain a
semantic description at object level for potential interactions in dynamic
scenarios. We evaluate RDS-SLAM in TUM RGB-D dataset, and experimental results
show that RDS-SLAM can run with 30.3 ms per frame in dynamic scenarios using
only an Intel Core i7 CPU, and achieves comparable accuracy compared with the
state-of-the-art SLAM systems which heavily rely on both Intel Core i7 CPUs and
powerful GPUs.
- Abstract(参考訳): 本稿では,orb-slam2に基づく軽量システムであるrds-slamを提案し,一般的なintel core i7 cpuのみを使用して,動的シナリオのためのオブジェクトレベルでのポーズを正確に推定し,セマンティックマップを構築する。
RDS-SLAMでは、ORB-SLAM2の限界を克服するために、3つの大きな改善とアーキテクチャの変更が提案されている。
まず、キーフレームに軽量なオブジェクト検出ニューラルネットワークを採用する。
第二に、効率的なトラッキングと予測機構をシステムに組み込んで、すべての受信フレームにおいて可動オブジェクトに属する特徴点を除去する。
第3に、セマンティックoctreeマップは、検出と追跡結果の確率的融合によって構築され、ロボットが動的シナリオにおける潜在的な相互作用のためにオブジェクトレベルで意味記述を維持することができる。
我々は、TUM RGB-DデータセットにおけるRDS-SLAMを評価し、実験結果から、RDS-SLAMは、Intel Core i7 CPUのみを使用して、動的シナリオでフレーム当たり30.3msで動作可能であることを示し、Intel Core i7 CPUと強力なGPUの両方に大きく依存している最先端のSLAMシステムと比較して、同等の精度を実現する。
関連論文リスト
- IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - NIS-SLAM: Neural Implicit Semantic RGB-D SLAM for 3D Consistent Scene Understanding [31.56016043635702]
NIS-SLAMは,高効率な暗黙的意味論的RGB-D SLAMシステムである。
高忠実な表面再構成と空間的一貫したシーン理解のために、我々は高周波多分解能テトラヘドロンに基づく特徴を組み合わせた。
また、我々のアプローチが拡張現実のアプリケーションに応用可能であることも示している。
論文 参考訳(メタデータ) (2024-07-30T14:27:59Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - 3DS-SLAM: A 3D Object Detection based Semantic SLAM towards Dynamic
Indoor Environments [1.4901625182926226]
3DS-SLAM, 3D Semantic SLAMを導入する。
3DS-SLAMは、意味的制約と幾何学的制約の両方を逐次解決する密結合アルゴリズムである。
TUM RGB-Dデータセットの動的シーケンスを平均98.01%改善している。
論文 参考訳(メタデータ) (2023-10-10T07:48:40Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - TwistSLAM++: Fusing multiple modalities for accurate dynamic semantic
SLAM [0.0]
TwistSLAM++は、ステレオ画像とLiDAR情報を融合するセマンティックでダイナミックなSLAMシステムである。
従来のベンチマークでは,マルチモーダル情報に基づく融合手法によりオブジェクト追跡の精度が向上していることが示されている。
論文 参考訳(メタデータ) (2022-09-16T12:28:21Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。