論文の概要: UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input
- arxiv url: http://arxiv.org/abs/2307.00741v1
- Date: Mon, 3 Jul 2023 04:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 14:26:56.066573
- Title: UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input
- Title(参考訳): UnLoc:LiDAR、レーダーおよび/またはカメラ入力を用いた自動運転車のユニバーサルローカライゼーション手法
- Authors: Muhammad Ibrahim, Naveed Akhtar, Saeed Anwar, and Ajmal Mian
- Abstract要約: UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
- 参考スコア(独自算出の注目度): 51.150605800173366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localization is a fundamental task in robotics for autonomous navigation.
Existing localization methods rely on a single input data modality or train
several computational models to process different modalities. This leads to
stringent computational requirements and sub-optimal results that fail to
capitalize on the complementary information in other data streams. This paper
proposes UnLoc, a novel unified neural modeling approach for localization with
multi-sensor input in all weather conditions. Our multi-stream network can
handle LiDAR, Camera and RADAR inputs for localization on demand, i.e., it can
work with one or more input sensors, making it robust to sensor failure. UnLoc
uses 3D sparse convolutions and cylindrical partitioning of the space to
process LiDAR frames and implements ResNet blocks with a slot attention-based
feature filtering module for the Radar and image modalities. We introduce a
unique learnable modality encoding scheme to distinguish between the input
sensor data. Our method is extensively evaluated on Oxford Radar RobotCar,
ApolloSouthBay and Perth-WA datasets. The results ascertain the efficacy of our
technique.
- Abstract(参考訳): ローカライゼーションは自律ナビゲーションのためのロボットの基本的なタスクである。
既存のローカライズ手法は単一の入力データモダリティに依存するか、複数の計算モデルを訓練して異なるモダリティを処理する。
これは厳密な計算要求と、他のデータストリームの補完的な情報に乗じない準最適結果をもたらす。
本論文では,全気象条件におけるマルチセンサ入力による局所化のための統一型ニューラルネットワークUnLocを提案する。
当社のマルチストリームネットワークは、lidar、カメラ、レーダー入力を処理して、オンデマンドでローカライズすることが可能です。
UnLocは空間の3Dスパース畳み込みと円筒分割を利用してLiDARフレームを処理し、Radarと画像モダリティのためのスロットアテンションベースの特徴フィルタリングモジュールでResNetブロックを実装している。
入力センサデータを識別するために,一意に学習可能なモダリティ符号化方式を導入する。
本手法はoxford radar robotcar, apollosouthbay, perth-waデータセット上で広く評価されている。
結果は我々の技術の有効性を確認した。
関連論文リスト
- The Oxford Spires Dataset: Benchmarking Large-Scale LiDAR-Visual Localisation, Reconstruction and Radiance Field Methods [10.265865092323041]
本稿では,オックスフォードの有名なランドマーク周辺で収集された大規模マルチモーダルデータセットを紹介する。
また、ローカライゼーション、再構築、新規ビュー合成を含むタスクのベンチマークも作成する。
我々のデータセットとベンチマークは、放射場法とSLAMシステムのより良い統合を容易にすることを意図している。
論文 参考訳(メタデータ) (2024-11-15T19:43:24Z) - GSPR: Multimodal Place Recognition Using 3D Gaussian Splatting for Autonomous Driving [9.023864430027333]
マルチモーダル位置認識は ユニセンサーシステムの弱点を克服する能力によって 注目を集めています
本稿では,GSPRと呼ばれる3次元ガウス型マルチモーダル位置認識ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-01T00:43:45Z) - OverlapMamba: Novel Shift State Space Model for LiDAR-based Place Recognition [10.39935021754015]
位置認識のための新しいネットワークであるOverlapMambaを開発した。
本手法は,以前に訪れた場所を異なる方向から横断する場合でも,ループの閉鎖を効果的に検出する。
生のレンジビューの入力に基づいて、典型的なLiDARと複数ビューの組み合わせ法を時間的複雑さと速度で上回っている。
論文 参考訳(メタデータ) (2024-05-13T17:46:35Z) - Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - IR-MCL: Implicit Representation-Based Online Global Localization [31.77645160411745]
本稿では,室内環境におけるロボットの姿勢を2次元LiDARデータを用いて推定する問題に対処する。
ニューラルネットワークを用いてシーンを暗黙的に表現するためのニューラルネットワーク占有場(NOF)を提案する。
本研究では,最先端手法のローカライズ性能を超越したアプローチを用いて,ロボットを高精度かつ効率的にローカライズできることを示す。
論文 参考訳(メタデータ) (2022-10-06T17:59:08Z) - SeqOT: A Spatial-Temporal Transformer Network for Place Recognition
Using Sequential LiDAR Data [9.32516766412743]
本研究では,シーケンシャルレンジ画像から得られる時間的・空間的情報を活用するトランスフォーマーネットワークSeqOTを提案する。
異なる環境下で異なる種類のLiDARセンサを用いて収集した4つのデータセットに対するアプローチを評価した。
本手法は,センサのフレームレートよりも高速に動作する。
論文 参考訳(メタデータ) (2022-09-16T14:08:11Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。