論文の概要: BoW3D: Bag of Words for Real-time Loop Closing in 3D LiDAR SLAM
- arxiv url: http://arxiv.org/abs/2208.07473v1
- Date: Mon, 15 Aug 2022 23:46:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:31:33.161620
- Title: BoW3D: Bag of Words for Real-time Loop Closing in 3D LiDAR SLAM
- Title(参考訳): bow3d:3dlidarスラムのリアルタイムループクローズのための言葉の袋
- Authors: Yunge Cui, Yinlong Zhang, Xieyuanli Chen, Jiahua Dong, Qingxiao Wu,
Feng Zhu
- Abstract要約: 単語のバグ(BoW)はループ閉鎖において大きな成功を収めた。
BoW3Dは、3D機能であるLinK3Dに基づいて単語の袋を構築する。
BoW3D は KITTI 00 のループの認識と修正に平均 50 ms を要していることは注目に値する。
- 参考スコア(独自算出の注目度): 12.489750963673657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Loop closing is a fundamental part of simultaneous localization and mapping
(SLAM) for autonomous mobile systems. In the field of visual SLAM, bag of words
(BoW) has achieved great success in loop closure. The BoW features for loop
searching can also be used in the subsequent 6-DoF loop correction. However,
for 3D LiDAR SLAM, the state-of-the-art methods may fail to effectively
recognize the loop in real time, and usually cannot correct the full 6-DoF loop
pose. To address this limitation, we present a novel Bag of Words for real-time
loop closing in 3D LiDAR SLAM, called BoW3D. The novelty of our method lies in
that it not only efficiently recognize the revisited loop places, but also
correct the full 6-DoF loop pose in real time. BoW3D builds the bag of words
based on the 3D feature LinK3D, which is efficient, pose-invariant and can be
used for accurate point-to-point matching. We furthermore embed our proposed
method into 3D LiDAR odometry system to evaluate loop closing performance. We
test our method on public dataset, and compare it against other
state-of-the-art algorithms. BoW3D shows better performance in terms of F1 max
and extended precision scores in most scenarios with superior real-time
performance. It is noticeable that BoW3D takes an average of 50 ms to recognize
and correct the loops in KITTI 00 (includes 4K+ 64-ray LiDAR scans), when
executed on a notebook with an Intel Core i7 @2.2 GHz processor.
- Abstract(参考訳): ループクローズは、自律移動システムのための同時ローカライゼーションとマッピング(slam)の基本的な部分である。
視覚SLAMの分野では,言葉袋(BoW)はループ閉鎖において大きな成功を収めている。
ループ探索のためのBoW機能は、その後の6-DoFループ修正にも利用できる。
しかし、3D LiDAR SLAMでは、最先端の手法はリアルタイムでループを効果的に認識することができず、通常は6-DoFループの完全なポーズを修正できない。
この制限に対処するため,BoW3Dと呼ばれる3D LiDAR SLAMでリアルタイムにループクローズする新しいBag of Wordsを提案する。
提案手法の新規性は,再検討したループ位置を効率よく認識するだけでなく,全6-DoFループポーズをリアルタイムで補正することにある。
bow3dは、効率的なポーズ不変で正確なポイントツーポイントマッチングに使用できる3d機能link3dに基づいて、単語の袋を構築する。
さらに,提案手法を3次元LiDARオドメトリーシステムに組み込んでループ閉鎖性能の評価を行う。
提案手法を公開データセット上でテストし,他の最先端アルゴリズムと比較する。
BoW3Dは、F1maxと拡張精度スコアの点で、ほとんどのシナリオにおいて、より優れたリアルタイムパフォーマンスを示す。
BoW3Dは、Intel Core i7 @2.2 GHzプロセッサでノートブック上で実行する場合、KITTI 00(4K+ 64-ray LiDARスキャンを含む)のループの認識と修正に平均50ミリ秒を要する。
関連論文リスト
- EmbodiedSAM: Online Segment Any 3D Thing in Real Time [61.2321497708998]
身体的なタスクは、エージェントが探索と同時に3Dシーンを完全に理解する必要がある。
オンライン、リアルタイム、微粒化、高度に一般化された3D知覚モデルは、必死に必要である。
論文 参考訳(メタデータ) (2024-08-21T17:57:06Z) - Open-YOLO 3D: Towards Fast and Accurate Open-Vocabulary 3D Instance Segmentation [91.40798599544136]
高速かつ高精度なオープン語彙型3Dインスタンスセグメンテーション手法Open-YOLO 3Dを提案する。
オープンな3Dインスタンスセグメンテーションのために、マルチビューRGB画像からの2Dオブジェクト検出のみを効果的に活用する。
テキストプロンプトと3Dマスクとのマッチング性能は、2Dオブジェクト検出器でより高速に実現できることを実証的に見出した。
論文 参考訳(メタデータ) (2024-06-04T17:59:31Z) - Loopy-SLAM: Dense Neural SLAM with Loop Closures [53.11936461015725]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - CLIP goes 3D: Leveraging Prompt Tuning for Language Grounded 3D
Recognition [67.85902382734521]
CG3D(CLIP Goes 3D)と呼ばれる新しいフレームワークを提案する。
我々は、事前学習したCG3Dフレームワークを広範囲にテストし、ゼロショット、オープンシーン理解、検索タスクにおいてその印象的な能力を実証した。
論文 参考訳(メタデータ) (2023-03-20T17:52:24Z) - TR3D: Towards Real-Time Indoor 3D Object Detection [6.215404942415161]
TR3Dは、エンドツーエンドで訓練された完全畳み込み3Dオブジェクト検出モデルである。
ポイントクラウドとRGBの両方の入力を利用するため、我々は2Dと3Dの機能の早期融合を導入する。
TR3D+FFと呼ばれる初期の特徴融合モデルでは,SUN RGB-Dデータセット上で既存の3Dオブジェクト検出手法よりも優れている。
論文 参考訳(メタデータ) (2023-02-06T15:25:50Z) - LinK3D: Linear Keypoints Representation for 3D LiDAR Point Cloud [18.942933892804028]
本稿では,LinK3Dと呼ばれる3次元LiDAR点雲に対する線形キーポイント表現法を提案する。
LinK3Dは、典型的な回転するLiDARセンサーの10Hzでのセンサーフレームレートよりも高速で、優れたリアルタイム性能を示す。
提案手法はLiDARオドメトリータスクに拡張可能であり,優れた拡張性を示す。
論文 参考訳(メタデータ) (2022-06-13T06:50:56Z) - Loop closure detection using local 3D deep descriptors [22.93552565583209]
局所3次元深部記述子(L3D)を用いた同時局所化・マッピングにおけるループ閉鎖検出手法を提案する。
本稿では,互いにアレスト近傍の記述子に対応する点間の距離誤差を計算し,ループ検出のための新しい重なり測定手法を提案する。
この手法により,ループを正確に検出し,重なりが小さければ6自由度ポーズを推定できる。
論文 参考訳(メタデータ) (2021-10-31T09:18:38Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RTM3D: Real-time Monocular 3D Detection from Object Keypoints for
Autonomous Driving [26.216609821525676]
最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。
画像空間における3次元境界ボックスの9つの視点キーポイントを予測し、3次元空間における3次元視点と2次元視点の幾何学的関係を利用して、次元、位置、方向を復元する。
提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。
論文 参考訳(メタデータ) (2020-01-10T08:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。