論文の概要: SphereVLAD++: Attention-based and Signal-enhanced Viewpoint Invariant
Descriptor
- arxiv url: http://arxiv.org/abs/2207.02958v1
- Date: Wed, 6 Jul 2022 20:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 05:38:35.926657
- Title: SphereVLAD++: Attention-based and Signal-enhanced Viewpoint Invariant
Descriptor
- Title(参考訳): SphereVLAD++:アテンションベースおよび信号強化ビューポイント不変記述子
- Authors: Shiqi Zhao, Peng Yin, Ge Yi, and Sebastian Scherer
- Abstract要約: SphereVLAD++ は注目度が高められた視点不変位置認識手法である。
SphereVLAD++は、小さな視点や完全に逆の視点差の下で、最先端の3D位置認識手法をすべて上回ることを示す。
- 参考スコア(独自算出の注目度): 6.326554177747699
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: LiDAR-based localization approach is a fundamental module for large-scale
navigation tasks, such as last-mile delivery and autonomous driving, and
localization robustness highly relies on viewpoints and 3D feature extraction.
Our previous work provides a viewpoint-invariant descriptor to deal with
viewpoint differences; however, the global descriptor suffers from a low
signal-noise ratio in unsupervised clustering, reducing the distinguishable
feature extraction ability. We develop SphereVLAD++, an attention-enhanced
viewpoint invariant place recognition method in this work. SphereVLAD++
projects the point cloud on the spherical perspective for each unique area and
captures the contextual connections between local features and their
dependencies with global 3D geometry distribution. In return, clustered
elements within the global descriptor are conditioned on local and global
geometries and support the original viewpoint-invariant property of SphereVLAD.
In the experiments, we evaluated the localization performance of SphereVLAD++
on both public KITTI360 datasets and self-generated datasets from the city of
Pittsburgh. The experiment results show that SphereVLAD++ outperforms all
relative state-of-the-art 3D place recognition methods under small or even
totally reversed viewpoint differences and shows 0.69% and 15.81% successful
retrieval rates with better than the second best. Low computation requirements
and high time efficiency also help its application for low-cost robots.
- Abstract(参考訳): LiDARベースのローカライゼーションアプローチは、ラストマイル配送や自動運転といった大規模ナビゲーションタスクの基本的なモジュールであり、ローカライゼーションの堅牢性は視点と3D特徴抽出に大きく依存している。
これまでの研究では、視点差に対処する視点不変な記述子を提供していたが、グローバル記述子は教師なしクラスタリングにおいて低信号雑音比に悩まされ、識別可能な特徴抽出能力が低下する。
本研究では,注意を喚起した視点不変位置認識手法である spherevlad++ を開発した。
spherevlad++は、各ユニークな領域の球面的な視点でpoint cloudをプロジェクトし、ローカル機能とその依存関係と、グローバルな3dジオメトリ分布とのコンテキスト接続をキャプチャする。
その見返りとして、グローバルディスクリプタ内のクラスタ化された要素は、局所的およびグローバルなジオメトリで条件付けられ、SphereVLADの本来の視点不変性をサポートする。
実験では,ピッツバーグ市のパブリックKITTI360データセットと自己生成データセットの両方において,SphereVLAD++のローカライゼーション性能を評価した。
実験の結果、SphereVLAD++は、小さな、あるいは全く逆の視点差の下で、最先端の3D位置認識手法を全て上回っており、検索率0.69%と15.81%が2番目に優れている。
低計算要求と高時間効率もまた、低コストロボットへの応用に役立つ。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Gaussian Splatting with Localized Points Management [52.009874685460694]
局所的点管理(LPM)は、点加算と幾何校正の双方の最も高い需要において、これらの誤り貢献ゾーンを特定することができる。
LPMは特定ゾーンに点密度を適用し、これらの領域の前に位置する点の不透明度をリセットし、不条件点を補正する新たな機会を創出する。
特に、LPMはバニラ3DGSとSpaceTimeGSの両方を改善して、リアルタイム速度を維持しながら最先端のレンダリング品質を実現している。
論文 参考訳(メタデータ) (2024-06-06T16:55:07Z) - DuEqNet: Dual-Equivariance Network in Outdoor 3D Object Detection for
Autonomous Driving [4.489333751818157]
まず3次元物体検出ネットワークに等分散の概念を導入するDuEqNetを提案する。
我々のモデルの双対同変は、局所的および大域的両方の同変的特徴を抽出することができる。
本モデルでは, 配向精度が向上し, 予測効率が向上する。
論文 参考訳(メタデータ) (2023-02-27T08:30:02Z) - Centralized Feature Pyramid for Object Detection [53.501796194901964]
視覚的特徴ピラミッドは、広範囲のアプリケーションにおいて、有効性と効率の両方において、その優位性を示している。
本稿では,オブジェクト検出のためのOLO特徴ピラミッドを提案する。
論文 参考訳(メタデータ) (2022-10-05T08:32:54Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Bidirectional Feature Globalization for Few-shot Semantic Segmentation
of 3D Point Cloud Scenes [1.8374319565577157]
本稿では,グローバルな認識を局所的な特徴に組み込むために,双方向機能グローバリゼーション(BFG)アプローチを提案する。
プロトタイプ・ツー・ポイントのグローバル化(Pr2PoG)により、グローバルな認識は、疎いプロトタイプから高密度な特徴への類似度重みに基づく局所的な特徴に埋め込まれる。
グローバルな知覚に埋め込まれた各クラスのスパースプロトタイプは、数発の3Dセグメンテーションのための単一のプロトタイプに要約される。
論文 参考訳(メタデータ) (2022-08-13T15:04:20Z) - Unsupervised Learning on 3D Point Clouds by Clustering and Contrasting [11.64827192421785]
教師なし表現学習は、人間の介入なしに機能を自動抽出するための有望な方向である。
本稿では、ポイントワイドおよびグローバルな特徴の学習を行うために、textbfConClu という、一般的な教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-05T12:54:17Z) - LoGG3D-Net: Locally Guided Global Descriptor Learning for 3D Place
Recognition [31.105598103211825]
追加のトレーニング信号(局所的整合性損失)が、リビジョン間で一貫性のある局所的特徴の学習にネットワークを導くことができることを示す。
私たちは、LoGG3D-Netと呼ばれるエンドツーエンドのトレーニング可能なアーキテクチャでアプローチを定式化します。
論文 参考訳(メタデータ) (2021-09-17T03:32:43Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - 3D Object Detection with Pointformer [29.935891419574602]
本稿では,3dポイントクラウドのためのトランスフォーマーバックボーンであるpointformerを提案する。
ローカルトランスフォーマーモジュールは、オブジェクトレベルでコンテキスト依存の領域特徴を学習するローカル領域のポイント間の相互作用をモデル化するために使用される。
Global Transformerは、シーンレベルでコンテキスト対応の表現を学ぶように設計されている。
論文 参考訳(メタデータ) (2020-12-21T15:12:54Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。