論文の概要: LodoNet: A Deep Neural Network with 2D Keypoint Matchingfor 3D LiDAR
Odometry Estimation
- arxiv url: http://arxiv.org/abs/2009.00164v1
- Date: Tue, 1 Sep 2020 01:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:09:19.017419
- Title: LodoNet: A Deep Neural Network with 2D Keypoint Matchingfor 3D LiDAR
Odometry Estimation
- Title(参考訳): LodoNet: 3次元LiDARオドメトリー推定のための2次元キーポイントマッチングを備えたディープニューラルネットワーク
- Authors: Ce Zheng, Yecheng Lyu, Ming Li, Ziming Zhang
- Abstract要約: 本稿では,LiDARフレームを画像空間に転送し,画像特徴抽出として問題を再構成することを提案する。
特徴抽出のためのスケール不変特徴変換(SIFT)の助けを借りて、マッチングキーポイントペア(MKP)を生成することができる。
畳み込みニューラルネットワークパイプラインは、抽出したMKPによるLiDARのオドメトリー推定のために設計されている。
提案手法,すなわちLodoNet は,KITTI odometry 推定ベンチマークで評価され,最先端の手法と同等あるいはそれ以上の結果が得られた。
- 参考スコア(独自算出の注目度): 22.664095688406412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based LiDAR odometry (LO) estimation attracts increasing
research interests in the field of autonomous driving and robotics. Existing
works feed consecutive LiDAR frames into neural networks as point clouds and
match pairs in the learned feature space. In contrast, motivated by the success
of image based feature extractors, we propose to transfer the LiDAR frames to
image space and reformulate the problem as image feature extraction. With the
help of scale-invariant feature transform (SIFT) for feature extraction, we are
able to generate matched keypoint pairs (MKPs) that can be precisely returned
to the 3D space. A convolutional neural network pipeline is designed for LiDAR
odometry estimation by extracted MKPs. The proposed scheme, namely LodoNet, is
then evaluated in the KITTI odometry estimation benchmark, achieving on par
with or even better results than the state-of-the-art.
- Abstract(参考訳): 深層学習に基づくLiDAR odometry (LO) 推定は、自律運転とロボット工学の分野における研究の関心を高めている。
既存の作業は、連続したLiDARフレームをポイントクラウドとしてニューラルネットワークに供給し、学習された特徴空間内のペアにマッチする。
対照的に,画像特徴抽出器の成功に動機づけられたlidarフレームを画像空間に転送し,その問題を画像特徴抽出として再構成する。
特徴抽出のためのスケール不変特徴変換(SIFT)の助けを借りて、3D空間に正確に返却可能なマッチングキーポイントペア(MKP)を生成することができる。
畳み込みニューラルネットワークパイプラインは,抽出したMKPによるLiDAR計測のために設計されている。
提案手法,すなわちLodoNet は,KITTI odometry 評価ベンチマークで評価され,最先端の手法と同等あるいはそれ以上の結果が得られた。
関連論文リスト
- NeRF-LOAM: Neural Implicit Representation for Large-Scale Incremental
LiDAR Odometry and Mapping [14.433784957457632]
ニューラルドメトリー,ニューラルマッピング,メッシュ再構成の3つのモジュールからなる新しいNeRF-LOAMを提案する。
提案手法は,LiDARデータを用いた大規模環境において,最先端のオドメトリーとマッピング性能を実現するとともに,強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-03-19T16:40:36Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Model-inspired Deep Learning for Light-Field Microscopy with Application
to Neuron Localization [27.247818386065894]
光フィールド顕微鏡画像を用いた高速かつ堅牢なソースの3Dローカリゼーションを実現するモデルに基づくディープラーニング手法を提案する。
これは畳み込みスパース符号化問題を効率的に解くディープネットワークを開発することによって実現される。
光場からのほ乳類ニューロンの局在化実験により,提案手法が性能,解釈性,効率の向上をもたらすことが示された。
論文 参考訳(メタデータ) (2021-03-10T16:24:47Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - Scan-based Semantic Segmentation of LiDAR Point Clouds: An Experimental
Study [2.6205925938720833]
最先端の手法では、深いニューラルネットワークを使用して、LiDARスキャンの各点のセマンティッククラスを予測する。
LiDAR測定を処理するための強力で効率的な方法は、2次元の画像のような投影を使うことである。
メモリの制約だけでなく、パフォーマンスの向上やランタイムの改善など、さまざまなテクニックを実証する。
論文 参考訳(メタデータ) (2020-04-06T11:08:12Z) - Cylindrical Convolutional Networks for Joint Object Detection and
Viewpoint Estimation [76.21696417873311]
3次元空間で定義された畳み込みカーネルの円筒形表現を利用する学習可能なモジュールである円筒型畳み込みネットワーク(CCN)を導入する。
CCNはビュー固有の畳み込みカーネルを通してビュー固有の特徴を抽出し、各視点におけるオブジェクトカテゴリスコアを予測する。
本実験は,円柱状畳み込みネットワークが関節物体の検出と視点推定に与える影響を実証する。
論文 参考訳(メタデータ) (2020-03-25T10:24:58Z) - CAE-LO: LiDAR Odometry Leveraging Fully Unsupervised Convolutional
Auto-Encoder for Interest Point Detection and Feature Description [10.73965992177754]
2D CAEを用いた球面リングデータから利得点を検出し、3D CAEを用いたマルチレゾリューションボクセルモデルから特徴点を抽出する、完全に教師なしコナールオートエンコーダベースのLiDARオドメトリー(CAE-LO)を提案する。
1)KITTIデータセットに基づく実験により、未構造化シナリオにおける一致の成功率を改善するために、より局所的な詳細を抽出できることが示され、我々の特徴は、マッチング不整合比で50%以上、最先端の成果を上げている。
論文 参考訳(メタデータ) (2020-01-06T01:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。