論文の概要: SeqOT: A Spatial-Temporal Transformer Network for Place Recognition
Using Sequential LiDAR Data
- arxiv url: http://arxiv.org/abs/2209.07951v1
- Date: Fri, 16 Sep 2022 14:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 13:26:27.344732
- Title: SeqOT: A Spatial-Temporal Transformer Network for Place Recognition
Using Sequential LiDAR Data
- Title(参考訳): SeqOT: 逐次LiDARデータを用いた位置認識のための空間時間変換器ネットワーク
- Authors: Junyi Ma, Xieyuanli Chen, Jingyi Xu, Guangming Xiong
- Abstract要約: 本研究では,シーケンシャルレンジ画像から得られる時間的・空間的情報を活用するトランスフォーマーネットワークSeqOTを提案する。
異なる環境下で異なる種類のLiDARセンサを用いて収集した4つのデータセットに対するアプローチを評価した。
本手法は,センサのフレームレートよりも高速に動作する。
- 参考スコア(独自算出の注目度): 9.32516766412743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Place recognition is an important component for autonomous vehicles to
achieve loop closing or global localization. In this paper, we tackle the
problem of place recognition based on sequential 3D LiDAR scans obtained by an
onboard LiDAR sensor. We propose a transformer-based network named SeqOT to
exploit the temporal and spatial information provided by sequential range
images generated from the LiDAR data. It uses multi-scale transformers to
generate a global descriptor for each sequence of LiDAR range images in an
end-to-end fashion. During online operation, our SeqOT finds similar places by
matching such descriptors between the current query sequence and those stored
in the map. We evaluate our approach on four datasets collected with different
types of LiDAR sensors in different environments. The experimental results show
that our method outperforms the state-of-the-art LiDAR-based place recognition
methods and generalizes well across different environments. Furthermore, our
method operates online faster than the frame rate of the sensor. The
implementation of our method is released as open source at:
https://github.com/BIT-MJY/SeqOT.
- Abstract(参考訳): 位置認識は、ループクローズまたはグローバルローカライゼーションを達成するための自動運転車にとって重要な要素である。
本稿では,車載LiDARセンサを用いた連続3次元LiDARスキャンに基づく位置認識の課題に対処する。
本稿では,LiDARデータから生成した逐次範囲画像から得られる時間的・空間的情報を活用するトランスフォーマーネットワークSeqOTを提案する。
マルチスケールトランスフォーマーを使用して、エンドツーエンドでlidarレンジイメージのシーケンス毎にグローバルディスクリプタを生成する。
オンライン操作中、私たちのSeqOTは、現在のクエリシーケンスとマップに格納されているディスクリプタをマッチングすることで、同様の場所を見つけます。
異なる環境下で異なる種類のLiDARセンサを用いて収集した4つのデータセットに対するアプローチを評価する。
実験の結果,本手法は最先端のlidarに基づく位置認識手法よりも優れており,異なる環境にまたがってよく一般化できることがわかった。
さらに,本手法はセンサのフレームレートよりも高速にオンライン動作を行う。
本手法の実装は、https://github.com/BIT-MJY/SeqOTでオープンソースとして公開される。
関連論文リスト
- GSPR: Multimodal Place Recognition Using 3D Gaussian Splatting for Autonomous Driving [9.023864430027333]
マルチモーダル位置認識は ユニセンサーシステムの弱点を克服する能力によって 注目を集めています
本稿では,GSPRと呼ばれる3次元ガウス型マルチモーダル位置認識ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-01T00:43:45Z) - RaLF: Flow-based Global and Metric Radar Localization in LiDAR Maps [8.625083692154414]
我々は、環境のLiDARマップにレーダースキャンをローカライズするための、新しいディープニューラルネットワークベースのアプローチであるRaLFを提案する。
RaLFは、レーダーとLiDAR機能エンコーダ、グローバルなディスクリプタを生成する場所認識ヘッド、レーダースキャンとマップ間の3DF変換を予測するメートル法ローカライゼーションヘッドで構成されている。
複数の実世界の運転データセットに対する我々のアプローチを広く評価し、RaLFが位置認識とメートル法ローカライゼーションの両方において最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-09-18T15:37:01Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - CVTNet: A Cross-View Transformer Network for Place Recognition Using
LiDAR Data [15.144590078316252]
本稿では,LIDARデータから発生する範囲画像ビュー(RIV)と鳥眼ビュー(BEV)を融合させる,BITNetと呼ばれるクロスビュートランスフォーマーベースのネットワークを提案する。
センサの設定や環境条件の異なる3つのデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-02-03T11:37:20Z) - Online Pole Segmentation on Range Images for Long-term LiDAR
Localization in Urban Environments [32.34672033386747]
オンラインで実行される幾何学的特徴に基づく,新しい,正確かつ高速な極抽出手法を提案する。
本手法は3次元LiDARスキャンから生成した範囲画像を直接計算する。
抽出した極を擬似ラベルとして、オンライン範囲画像に基づく極分割のためのディープニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-08-15T17:58:08Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Learning Moving-Object Tracking with FMCW LiDAR [53.05551269151209]
新たに開発したLiDARセンサである周波数変調連続波(FMCW)を用いた学習型移動物体追跡手法を提案する。
ラベルが与えられた場合,同じインスタンスから機能を埋め込みスペースにまとめて,異なるインスタンスから機能を分離してトラッキング品質を向上させる,対照的な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-02T09:11:36Z) - Temporal-Channel Transformer for 3D Lidar-Based Video Object Detection
in Autonomous Driving [121.44554957537613]
我々は,リダデータから映像オブジェクトを検出するための時空間領域とチャネル領域の関係をモデル化する,テンポラル・チャネル変換器(Temporal-Channel Transformer)を提案する。
具体的には、トランスの時間チャネルエンコーダは、異なるチャネルやフレームの情報をエンコードするように設計されている。
我々は, nuScenesベンチマークを用いて, 格子ボクセルを用いた3次元物体検出における最先端性能を実現する。
論文 参考訳(メタデータ) (2020-11-27T09:35:39Z) - Characterization of Multiple 3D LiDARs for Localization and Mapping
using Normal Distributions Transform [54.46473014276162]
マッピングや車両のローカライゼーションのタスクにおいて,多種多様なメーカー,モデル,レーザー構成を含む10種類の3次元LiDARセンサの詳細な比較を行った。
この研究で使用されるデータは、我々のLiDAR Benchmarking and Reference(LIBRE)データセットのサブセットであり、各センサーから独立して、各日の異なる時間に、公道で何度も運転される車両から取得される。
我々は,(1)平均地図エントロピーに基づく評価マップの品質を含む3次元地図作成作業における各LiDARの性能と特性を解析し,(2)地上の真理参照マップを用いて6-DOFのローカライゼーションを行う。
論文 参考訳(メタデータ) (2020-04-03T05:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。