論文の概要: (LC)$^2$: LiDAR-Camera Loop Constraints For Cross-Modal Place
Recognition
- arxiv url: http://arxiv.org/abs/2304.08660v1
- Date: Mon, 17 Apr 2023 23:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:24:40.664750
- Title: (LC)$^2$: LiDAR-Camera Loop Constraints For Cross-Modal Place
Recognition
- Title(参考訳): (lc)$^2$: クロスモーダル位置認識のためのlidarカメラループ制約
- Authors: Alex Junho Lee, Seungwon Song, Hyungtae Lim, Woojoo Lee and Hyun Myung
- Abstract要約: 本稿では,先行点クラウドマップを使わずにLiDARローカライゼーションを実現するために, (LC)$2$と呼ばれる新しいクロスマッチング手法を提案する。
ネットワークは、異なる画像とレンジ画像からローカライズ記述子を抽出するために訓練される。
我々は、LiDARベースのナビゲーションシステムが画像データベースから最適化され、その逆も可能であることを実証する。
- 参考スコア(独自算出の注目度): 0.9449650062296824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Localization has been a challenging task for autonomous navigation. A loop
detection algorithm must overcome environmental changes for the place
recognition and re-localization of robots. Therefore, deep learning has been
extensively studied for the consistent transformation of measurements into
localization descriptors. Street view images are easily accessible; however,
images are vulnerable to appearance changes. LiDAR can robustly provide precise
structural information. However, constructing a point cloud database is
expensive, and point clouds exist only in limited places. Different from
previous works that train networks to produce shared embedding directly between
the 2D image and 3D point cloud, we transform both data into 2.5D depth images
for matching. In this work, we propose a novel cross-matching method, called
(LC)$^2$, for achieving LiDAR localization without a prior point cloud map. To
this end, LiDAR measurements are expressed in the form of range images before
matching them to reduce the modality discrepancy. Subsequently, the network is
trained to extract localization descriptors from disparity and range images.
Next, the best matches are employed as a loop factor in a pose graph. Using
public datasets that include multiple sessions in significantly different
lighting conditions, we demonstrated that LiDAR-based navigation systems could
be optimized from image databases and vice versa.
- Abstract(参考訳): ローカライゼーションは自律ナビゲーションにとって難しい課題だった。
ループ検出アルゴリズムは、ロボットの場所認識と再局在化のための環境変化を克服しなければならない。
それゆえ、深層学習は測定値の定位記述子への一貫した変換のために広く研究されている。
ストリートビューの画像は簡単にアクセスできるが、画像は外観の変化に弱い。
LiDARは正確な構造情報をしっかりと提供できる。
しかし、ポイントクラウドデータベースの構築は高価であり、ポイントクラウドは限られた場所のみに存在する。
従来の2D画像と3Dポイントクラウドを直接埋め込みするネットワークを訓練する作業とは異なり、マッチングのために両データを2.5D深度画像に変換する。
本研究では,先行点クラウドマップを使わずにLiDARローカライゼーションを実現するために,(LC)$^2$と呼ばれる新しいクロスマッチング手法を提案する。
この目的のために、LiDAR測定は、一致する前にレンジ画像の形式で表現され、モダリティの差が小さくなる。
その後、ネットワークは、異種画像と範囲画像から局在記述子を抽出するように訓練される。
次に、ベストマッチはポーズグラフのループファクタとして使用される。
照明条件が著しく異なる複数のセッションを含む公開データセットを用いて,lidarベースのナビゲーションシステムが画像データベースから最適化され,その逆も可能であることを実証した。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - Monocular Visual Place Recognition in LiDAR Maps via Cross-Modal State Space Model and Multi-View Matching [2.400446821380503]
我々はRGB画像とポイントクラウドの両方のディスクリプタを学習するための効率的なフレームワークを導入する。
視覚状態空間モデル(VMamba)をバックボーンとして、ピクセルビューとシーンの共同トレーニング戦略を採用している。
視覚的な3Dポイントオーバーラップ戦略は、マルチビューの監視のために、ポイントクラウドビューとRGBイメージの類似性を定量化するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T18:31:41Z) - Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural Calibration [107.61458720202984]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性ポーズを推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - TULIP: Transformer for Upsampling of LiDAR Point Clouds [32.77657816997911]
LiDAR Upは、ロボットや自動運転車の認識システムにとって難しいタスクだ。
近年の研究では、3次元ユークリッド空間からのLiDARデータを2次元画像空間の超解像問題に変換することでこの問題を解決することを提案する。
低分解能LiDAR入力から高分解能LiDAR点雲を再構成する新しい方法であるTジオメトリを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:43:28Z) - PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds [100.03877236181546]
PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
論文 参考訳(メタデータ) (2022-07-30T13:52:19Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - Robust Place Recognition using an Imaging Lidar [45.37172889338924]
本研究では,画像lidarを用いたロバストなリアルタイム位置認識手法を提案する。
本手法は真不変であり,逆再訪と逆逆再訪に対処できる。
論文 参考訳(メタデータ) (2021-03-03T01:08:31Z) - A Simple and Efficient Registration of 3D Point Cloud and Image Data for
Indoor Mobile Mapping System [18.644879251473647]
光画像による3次元LiDAR点雲の登録は、マルチソースデータの組み合わせにおいて重要である。
幾何学的ミスアライメントは元々、LiDAR点雲と光学画像の間のポーズデータに存在する。
我々は,初期ポーズの精度を向上させるため,シンプルだが効率的な登録方法を開発した。
論文 参考訳(メタデータ) (2020-10-27T13:01:54Z) - SqueezeSegV3: Spatially-Adaptive Convolution for Efficient Point-Cloud
Segmentation [66.49351944322835]
大規模なポイントクラウドセグメンテーションでは、textitde factoメソッドは3Dポイントクラウドを投影して2D LiDARイメージを取得し、畳み込みを使用して処理する。
入力画像に応じて異なる位置の異なるフィルタを採用するための空間適応畳み込み(SAC)を提案する。
SACは、要素ワイド乗算、im2col、標準畳み込みのシリーズとして実装できるため、効率的に計算できる。
論文 参考訳(メタデータ) (2020-04-03T22:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。