論文の概要: VNI-Net: Vector Neurons-based Rotation-Invariant Descriptor for LiDAR
Place Recognition
- arxiv url: http://arxiv.org/abs/2308.12870v1
- Date: Thu, 24 Aug 2023 15:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:24:02.203612
- Title: VNI-Net: Vector Neurons-based Rotation-Invariant Descriptor for LiDAR
Place Recognition
- Title(参考訳): VNI-Net:LiDAR位置認識のためのベクトルニューロンに基づく回転不変記述子
- Authors: Gengxuan Tian, Junqiao Zhao, Yingfeng Cai, Fenglin Zhang, Wenjie Mu,
Chen Ye
- Abstract要約: 本稿では,ベクトルニューロンネットワーク(VNN)を用いてSO(3)回転不変性を実現する手法を提案する。
回転不変記述子を定式化する場合の有意な情報損失に対処するために,異なる層における特徴間の計算距離を提案する。
- 参考スコア(独自算出の注目度): 10.049145949807505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR-based place recognition plays a crucial role in Simultaneous
Localization and Mapping (SLAM) and LiDAR localization.
Despite the emergence of various deep learning-based and hand-crafting-based
methods, rotation-induced place recognition failure remains a critical
challenge.
Existing studies address this limitation through specific training strategies
or network structures.
However, the former does not produce satisfactory results, while the latter
focuses mainly on the reduced problem of SO(2) rotation invariance. Methods
targeting SO(3) rotation invariance suffer from limitations in discrimination
capability.
In this paper, we propose a new method that employs Vector Neurons Network
(VNN) to achieve SO(3) rotation invariance.
We first extract rotation-equivariant features from neighboring points and
map low-dimensional features to a high-dimensional space through VNN.
Afterwards, we calculate the Euclidean and Cosine distance in the
rotation-equivariant feature space as rotation-invariant feature descriptors.
Finally, we aggregate the features using GeM pooling to obtain global
descriptors.
To address the significant information loss when formulating
rotation-invariant descriptors, we propose computing distances between features
at different layers within the Euclidean space neighborhood.
This greatly improves the discriminability of the point cloud descriptors
while ensuring computational efficiency.
Experimental results on public datasets show that our approach significantly
outperforms other baseline methods implementing rotation invariance, while
achieving comparable results with current state-of-the-art place recognition
methods that do not consider rotation issues.
- Abstract(参考訳): LiDARに基づく位置認識は、SLAMとLiDARの局所化において重要な役割を果たす。
様々な深層学習と手作りに基づく手法の出現にもかかわらず、回転による位置認識の失敗は依然として重要な課題である。
既存の研究では、特定のトレーニング戦略やネットワーク構造を通じてこの制限に対処する。
しかし、前者は満足な結果を生み出さないが、後者は主にso(2)回転不変性の低減問題に焦点を当てている。
SO(3)回転不変度を目標とする方法は、識別能力の限界に悩まされる。
本稿では、ベクトルニューロンネットワーク(VNN)を用いてSO(3)回転不変性を実現する新しい手法を提案する。
まず、隣接する点から回転同変特徴を抽出し、VNNを通して低次元特徴を高次元空間にマップする。
その後、回転同変特徴空間におけるユークリッド距離とコサイン距離を回転不変特徴記述子として計算する。
最後に,GeMプーリングを利用してグローバルな記述子を得る。
回転不変記述子を定式化する際の有意な情報損失に対処するため,ユークリッド空間近傍の異なる層における特徴間の距離を求める。
これにより、ポイントクラウドディスクリプタの識別性が大幅に向上し、計算効率が向上する。
提案手法は, 回転不変性を実装した他のベースライン法よりも有意に優れており, 回転問題を考慮しない現在最先端の位置認識法と同等の結果が得られた。
関連論文リスト
- PARE-Net: Position-Aware Rotation-Equivariant Networks for Robust Point Cloud Registration [8.668461141536383]
回転不変の特徴を学習することは、ポイントクラウド登録の基本的な要件である。
既存の手法では、回転に敏感なネットワークを用いて特徴を抽出し、回転拡大を用いて近似不変写像を無作為に学習する。
高速で軽量でロバストな登録のための位置認識型回転同変ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-14T10:26:38Z) - An Accurate and Real-time Relative Pose Estimation from Triple Point-line Images by Decoupling Rotation and Translation [10.05584976985694]
3D-2D制約は、Visual Odometry (VO) やStructure-from-Motion (SfM) システムで広く使われている。
回転変換デカップリング推定に基づく新しい3次元ポーズ解決器を提案する。
論文 参考訳(メタデータ) (2024-03-18T10:21:05Z) - VI-Net: Boosting Category-level 6D Object Pose Estimation via Learning
Decoupled Rotations on the Spherical Representations [55.25238503204253]
作業を容易にするために,VI-Netと呼ばれる新しい回転推定ネットワークを提案する。
球面信号を処理するために、SPAtial Spherical Convolutionの新たな設計に基づいて、球面特徴ピラミッドネットワークを構築する。
ベンチマークデータセットの実験により,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-08-19T05:47:53Z) - CRIN: Rotation-Invariant Point Cloud Analysis and Rotation Estimation
via Centrifugal Reference Frame [60.24797081117877]
CRIN,すなわち遠心回転不変ネットワークを提案する。
CRINは点の座標を直接入力として取り、局所点を回転不変表現に変換する。
点に基づく3次元回転の連続分布を導入する。
論文 参考訳(メタデータ) (2023-03-06T13:14:10Z) - Detecting Rotated Objects as Gaussian Distributions and Its 3-D
Generalization [81.29406957201458]
既存の検出方法は、パラメータ化バウンディングボックス(BBox)を使用して(水平)オブジェクトをモデル化し、検出する。
このような機構は回転検出に有効な回帰損失を構築するのに基本的な限界があると主張する。
回転した物体をガウス分布としてモデル化することを提案する。
2次元から3次元へのアプローチを、方向推定を扱うアルゴリズム設計により拡張する。
論文 参考訳(メタデータ) (2022-09-22T07:50:48Z) - Attentive Rotation Invariant Convolution for Point Cloud-based Large
Scale Place Recognition [11.433270318356675]
本稿では,Attentive Rotation Invariant Convolution (ARIConv)を提案する。
クラウドスキャンを回転させた場合の大規模位置認識タスクにおいて,本モデルが最先端の性能を達成できることを実験的に実証した。
論文 参考訳(メタデータ) (2021-08-29T09:10:56Z) - PRIN/SPRIN: On Extracting Point-wise Rotation Invariant Features [91.2054994193218]
点群解析における回転不変特徴抽出に着目した点集合学習フレームワークPRINを提案する。
さらに、PRINをスパースポイントクラウド上で直接動作するSPRINと呼ばれるスパースバージョンに拡張します。
その結果、ランダムに回転した点群を持つデータセットでは、SPRINはデータ拡張なしで最先端の方法よりも優れたパフォーマンスを発揮します。
論文 参考訳(メタデータ) (2021-02-24T06:44:09Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z) - Quaternion Equivariant Capsule Networks for 3D Point Clouds [58.566467950463306]
本稿では,3次元回転と翻訳に同値な点雲を処理するための3次元カプセルモジュールを提案する。
カプセル間の動的ルーティングをよく知られたWeiszfeldアルゴリズムに接続する。
オペレーターに基づいて、ポーズから幾何学をアンタングルするカプセルネットワークを構築します。
論文 参考訳(メタデータ) (2019-12-27T13:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。