論文の概要: Attentive Rotation Invariant Convolution for Point Cloud-based Large
Scale Place Recognition
- arxiv url: http://arxiv.org/abs/2108.12790v1
- Date: Sun, 29 Aug 2021 09:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:41:21.902957
- Title: Attentive Rotation Invariant Convolution for Point Cloud-based Large
Scale Place Recognition
- Title(参考訳): 点クラウドに基づく大規模位置認識のための注意回転不変畳み込み
- Authors: Zhaoxin Fan, Zhenbo Song, Wenping Zhang, Hongyan Liu, Jun He, and
Xiaoyong Du
- Abstract要約: 本稿では,Attentive Rotation Invariant Convolution (ARIConv)を提案する。
クラウドスキャンを回転させた場合の大規模位置認識タスクにおいて,本モデルが最先端の性能を達成できることを実験的に実証した。
- 参考スコア(独自算出の注目度): 11.433270318356675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Driving and Simultaneous Localization and Mapping(SLAM) are
becoming increasingly important in real world, where point cloud-based large
scale place recognition is the spike of them. Previous place recognition
methods have achieved acceptable performances by regarding the task as a point
cloud retrieval problem. However, all of them are suffered from a common
defect: they can't handle the situation when the point clouds are rotated,
which is common, e.g, when viewpoints or motorcycle types are changed. To
tackle this issue, we propose an Attentive Rotation Invariant Convolution
(ARIConv) in this paper. The ARIConv adopts three kind of Rotation Invariant
Features (RIFs): Spherical Signals (SS), Individual-Local Rotation Invariant
Features (ILRIF) and Group-Local Rotation Invariant features (GLRIF) in its
structure to learn rotation invariant convolutional kernels, which are robust
for learning rotation invariant point cloud features. What's more, to highlight
pivotal RIFs, we inject an attentive module in ARIConv to give different RIFs
different importance when learning kernels. Finally, utilizing ARIConv, we
build a DenseNet-like network architecture to learn rotation-insensitive global
descriptors used for retrieving. We experimentally demonstrate that our model
can achieve state-of-the-art performance on large scale place recognition task
when the point cloud scans are rotated and can achieve comparable results with
most of existing methods on the original non-rotated datasets.
- Abstract(参考訳): 自動運転と同時ローカライゼーションとマッピング(slam)は、ポイントクラウドベースの大規模位置認識が彼らのスパイクである実世界でますます重要になっている。
従来の位置認識手法は,ポイントクラウド検索問題としてタスクを考慮し,許容可能な性能を実現している。
しかし、それらはすべて共通の欠陥に悩まされており、ポイント・クラウドが回転している場合、例えば視点やオートバイのタイプが変更された場合など、状況に対処できない。
この問題に対処するため,本論文では,注意回転不変変換(ARIConv)を提案する。
ARIConvは3種類の回転不変特徴 (RIF) を採用している: Spherical Signals (SS)、Personal-Local Rotation Invariant Features (ILRIF)、Group-Local Rotation Invariant Feature (GLRIF) である。
さらに、重要なRIFを強調するために、ARIConvに注意深いモジュールを注入して、カーネルを学ぶ際に異なる重要度を提供する。
最後に、ARIConvを利用してDenseNetのようなネットワークアーキテクチャを構築し、回転不感なグローバルディスクリプタを学習する。
実験により,本モデルは,ポイントクラウドスキャンを回転させた場合,大規模位置認識タスクにおいて最先端の性能を達成でき,元の非回転データセット上の既存の手法と同等の結果が得られることを実証した。
関連論文リスト
- PARE-Net: Position-Aware Rotation-Equivariant Networks for Robust Point Cloud Registration [8.668461141536383]
回転不変の特徴を学習することは、ポイントクラウド登録の基本的な要件である。
既存の手法では、回転に敏感なネットワークを用いて特徴を抽出し、回転拡大を用いて近似不変写像を無作為に学習する。
高速で軽量でロバストな登録のための位置認識型回転同変ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-14T10:26:38Z) - Rotation-Invariant Transformer for Point Cloud Matching [42.5714375149213]
我々は,回転不変変換器であるRoITrを導入し,点クラウドマッチングタスクにおけるポーズ変動に対処する。
本稿では,自己認識機構によって学習した,回転不変なクロスフレーム空間認識を備えたグローバルトランスフォーマーを提案する。
RoITrは、Inlier RatioとRegistration Recallの点で、既存のメソッドを少なくとも13と5のパーセンテージで上回っている。
論文 参考訳(メタデータ) (2023-03-14T20:55:27Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - CRIN: Rotation-Invariant Point Cloud Analysis and Rotation Estimation
via Centrifugal Reference Frame [60.24797081117877]
CRIN,すなわち遠心回転不変ネットワークを提案する。
CRINは点の座標を直接入力として取り、局所点を回転不変表現に変換する。
点に基づく3次元回転の連続分布を導入する。
論文 参考訳(メタデータ) (2023-03-06T13:14:10Z) - Rethinking Rotation Invariance with Point Cloud Registration [18.829454172955202]
本稿では, 回転不変形状符号化, 整列化機能統合, 深部特徴登録の3段階を通した回転不変性学習のための効果的なフレームワークを提案する。
3次元形状分類,部分分割,検索タスクの実験結果から,本研究の可能性が確認された。
論文 参考訳(メタデータ) (2022-12-31T08:17:09Z) - ReF -- Rotation Equivariant Features for Local Feature Matching [30.459559206664427]
本稿では,モデルアーキテクチャ自体に偏りを生じさせ,回転特異な特徴を生じさせる代替的補完的手法を提案する。
我々は, ステアブルCNNの高性能, 回転特異的カバレッジを全回転角に拡張できることを実証した。
本稿では,アンサンブル,ロバストな推定,ネットワークアーキテクチャのバリエーション,回転前処理の効果について詳細に分析する。
論文 参考訳(メタデータ) (2022-03-10T07:36:09Z) - ART-Point: Improving Rotation Robustness of Point Cloud Classifiers via
Adversarial Rotation [89.47574181669903]
本研究では, 点雲分類器の回転ロバスト性も, 対角訓練により得られることを示す。
具体的には、ART-Pointというフレームワークは、ポイントクラウドの回転を攻撃と見なしている。
最終的なロバストモデルに効率よく到達するために,高速なワンステップ最適化を提案する。
論文 参考訳(メタデータ) (2022-03-08T07:20:16Z) - RIConv++: Effective Rotation Invariant Convolutions for 3D Point Clouds
Deep Learning [32.18566879365623]
3Dポイントクラウドのディープラーニングは、ニューラルネットワークがポイントクラウドの機能を直接学習することのできる、有望な研究分野である。
本稿では,局所領域から強力な回転不変特徴を設計することで特徴の区別を高める,シンプルで効果的な畳み込み演算子を提案する。
ネットワークアーキテクチャは、各畳み込み層の近傍サイズを単純に調整することで、ローカルとグローバルの両方のコンテキストをキャプチャできる。
論文 参考訳(メタデータ) (2022-02-26T08:32:44Z) - PRIN/SPRIN: On Extracting Point-wise Rotation Invariant Features [91.2054994193218]
点群解析における回転不変特徴抽出に着目した点集合学習フレームワークPRINを提案する。
さらに、PRINをスパースポイントクラウド上で直接動作するSPRINと呼ばれるスパースバージョンに拡張します。
その結果、ランダムに回転した点群を持つデータセットでは、SPRINはデータ拡張なしで最先端の方法よりも優れたパフォーマンスを発揮します。
論文 参考訳(メタデータ) (2021-02-24T06:44:09Z) - Deep Positional and Relational Feature Learning for Rotation-Invariant
Point Cloud Analysis [107.9979381402172]
点雲解析のための回転不変深層ネットワークを提案する。
ネットワークは階層的であり、位置的特徴埋め込みブロックと関係的特徴埋め込みブロックという2つのモジュールに依存している。
実験では、ベンチマークデータセット上で最先端の分類とセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2020-11-18T04:16:51Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。