論文の概要: I2P-Rec: Recognizing Images on Large-scale Point Cloud Maps through
Bird's Eye View Projections
- arxiv url: http://arxiv.org/abs/2303.01043v1
- Date: Thu, 2 Mar 2023 07:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 15:34:33.056711
- Title: I2P-Rec: Recognizing Images on Large-scale Point Cloud Maps through
Bird's Eye View Projections
- Title(参考訳): I2P-Rec:Bird’s Eye View Projectionsによる大規模ポイントクラウドマップの画像認識
- Authors: Yixuan Li, Shuhang Zheng, Zhu Yu, Beinan Yu, Si-Yuan Cao, Lun Luo,
Hui-Liang Shen
- Abstract要約: 位置認識は、完全な自律性を達成するための、自動運転車にとって重要な技術である。
クロスモーダルデータを同じモダリティに変換することで,I2P-Rec法を提案する。
トレーニングデータの小さなセットだけで、I2P-RecはTop-1で90%以上のリコールレートを達成することができる。
- 参考スコア(独自算出の注目度): 20.696503005532406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Place recognition is an important technique for autonomous cars to achieve
full autonomy since it can provide an initial guess to online localization
algorithms. Although current methods based on images or point clouds have
achieved satisfactory performance, localizing the images on a large-scale point
cloud map remains a fairly unexplored problem. This cross-modal matching task
is challenging due to the difficulty in extracting consistent descriptors from
images and point clouds. In this paper, we propose the I2P-Rec method to solve
the problem by transforming the cross-modal data into the same modality.
Specifically, we leverage on the recent success of depth estimation networks to
recover point clouds from images. We then project the point clouds into Bird's
Eye View (BEV) images. Using the BEV image as an intermediate representation,
we extract global features with a Convolutional Neural Network followed by a
NetVLAD layer to perform matching. We evaluate our method on the KITTI dataset.
The experimental results show that, with only a small set of training data,
I2P-Rec can achieve a recall rate at Top-1 over 90\%. Also, it can generalize
well to unknown environments, achieving recall rates at Top-1\% over 80\% and
90\%, when localizing monocular images and stereo images on point cloud maps,
respectively.
- Abstract(参考訳): 位置認識は、オンラインローカライズアルゴリズムに最初の推測を提供するため、自動運転車が完全な自律性を達成するための重要な技術である。
画像やポイントクラウドに基づく現在の手法は良好な性能を達成しているが、大規模なポイントクラウドマップ上でのイメージのローカライズは未解決の問題である。
このクロスモーダルマッチングタスクは、画像や点雲から一貫した記述子を抽出することが難しいため、難しい。
本稿では,クロスモーダルデータを同一モダリティに変換することで,この問題を解決するための i2p-rec 法を提案する。
具体的には,近年の深度推定ネットワークの成功を利用して画像から点雲を復元する。
次に、ポイント雲をBird's Eye View (BEV)イメージに投影します。
中間表現としてBEV画像を用いて、畳み込みニューラルネットワークを用いてグローバルな特徴を抽出し、次いでNetVLAD層を用いてマッチングを行う。
提案手法をKITTIデータセット上で評価する。
実験の結果, i2p-recのリコールレートは, 僅かなトレーニングデータで90%以上, トップ1で達成できることがわかった。
また、ポイントクラウドマップ上のモノクロ画像とステレオ画像をそれぞれローカライズする場合、Top-1\%以上の80\%と90\%のリコール率を達成することで、未知の環境によく当てはまる。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Object Re-Identification from Point Clouds [3.6308236424346694]
我々は,物体ReIDを点雲から大規模に研究し,画像ReIDに対してその性能を確立する。
我々の知る限りでは、我々は実際の雲の観測から物体の再同定を初めて研究している。
論文 参考訳(メタデータ) (2023-05-17T13:43:03Z) - Point2Vec for Self-Supervised Representation Learning on Point Clouds [66.53955515020053]
Data2vecをポイントクラウド領域に拡張し、いくつかのダウンストリームタスクで推奨される結果を報告します。
我々は、ポイントクラウド上でData2vecライクな事前トレーニングの可能性を解放するpoint2vecを提案する。
論文 参考訳(メタデータ) (2023-03-29T10:08:29Z) - BEVPlace: Learning LiDAR-based Place Recognition using Bird's Eye View
Images [20.30997801125592]
位置認識における異なる表現の可能性、すなわち鳥の視線(BEV)画像について検討する。
BEV画像上で訓練された単純なVGGNetは、わずかな視点変化のシーンにおける最先端の場所認識手法と同等のパフォーマンスを達成する。
そこで我々は,クエリクラウドの位置を推定し,位置認識の利用を拡大する手法を開発した。
論文 参考訳(メタデータ) (2023-02-28T05:37:45Z) - Let Images Give You More:Point Cloud Cross-Modal Training for Shape
Analysis [43.13887916301742]
本稿では、ポイントクラウド分析を促進するために、シンプルだが効果的なポイントクラウドクロスモダリティトレーニング(PointCMT)戦略を導入する。
ビューイメージから補助的知識を効果的に獲得するために,教師学生のための枠組みを開発し,知識蒸留問題としてクロスモーダル学習を定式化する。
我々は、魅力的なバックボーン、すなわちPointCMT、PointNet++、PointMLPを備えた様々なデータセットにおいて、大きな利益を検証した。
論文 参考訳(メタデータ) (2022-10-09T09:35:22Z) - SeqNetVLAD vs PointNetVLAD: Image Sequence vs 3D Point Clouds for
Day-Night Place Recognition [31.714928102950594]
位置認識は移動ロボットのローカライゼーションとナビゲーションにとって重要な機能である。
逐次表現に基づく最近のVPR手法は有望な結果を示した。
我々は,3次元点クラウド法と画像シーケンス法を比較した。
論文 参考訳(メタデータ) (2021-06-22T02:05:32Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - Road Segmentation on low resolution Lidar point clouds for autonomous
vehicles [3.6020689500145653]
道路分割作業の精度に及ぼす高密度点雲のサブサンプリング画像による表現の影響を評価する。
LIDARの球面座標を既存のLoDNNアーキテクチャの入力チャネルとして用いる。
論文 参考訳(メタデータ) (2020-05-27T00:38:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。