論文の概要: CASSPR: Cross Attention Single Scan Place Recognition
- arxiv url: http://arxiv.org/abs/2211.12542v2
- Date: Tue, 29 Aug 2023 18:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 18:05:47.907676
- Title: CASSPR: Cross Attention Single Scan Place Recognition
- Title(参考訳): CASSPR: クロス注意シングルスキャンプレース認識
- Authors: Yan Xia, Mariia Gladkova, Rui Wang, Qianyun Li, Uwe Stilla, Jo\~ao F.
Henriques, Daniel Cremers
- Abstract要約: 点雲に基づく位置認識(LiDAR)は、自律ロボットや自動運転車にとって重要なコンポーネントである。
現在のSOTA性能は、点ベースまたはボクセルベースの構造を用いて蓄積したLiDARサブマップ上で達成される。
クロスアテンショントランスを用いた点ベースおよびボクセルベースアプローチの融合手法としてCASSPRを提案する。
- 参考スコア(独自算出の注目度): 43.68230981047338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Place recognition based on point clouds (LiDAR) is an important component for
autonomous robots or self-driving vehicles. Current SOTA performance is
achieved on accumulated LiDAR submaps using either point-based or voxel-based
structures. While voxel-based approaches nicely integrate spatial context
across multiple scales, they do not exhibit the local precision of point-based
methods. As a result, existing methods struggle with fine-grained matching of
subtle geometric features in sparse single-shot Li- DAR scans. To overcome
these limitations, we propose CASSPR as a method to fuse point-based and
voxel-based approaches using cross attention transformers. CASSPR leverages a
sparse voxel branch for extracting and aggregating information at lower
resolution and a point-wise branch for obtaining fine-grained local
information. CASSPR uses queries from one branch to try to match structures in
the other branch, ensuring that both extract self-contained descriptors of the
point cloud (rather than one branch dominating), but using both to inform the
output global descriptor of the point cloud. Extensive experiments show that
CASSPR surpasses the state-of-the-art by a large margin on several datasets
(Oxford RobotCar, TUM, USyd). For instance, it achieves AR@1 of 85.6% on the
TUM dataset, surpassing the strongest prior model by ~15%. Our code is publicly
available.
- Abstract(参考訳): 点雲に基づく位置認識(LiDAR)は、自律ロボットや自動運転車にとって重要なコンポーネントである。
現在のSOTA性能は、点ベースまたはボクセルベースの構造を用いて蓄積したLiDARサブマップ上で達成される。
voxelベースのアプローチは、複数のスケールにわたる空間的コンテキストをうまく統合するが、ポイントベース手法の局所的精度は示さない。
その結果, 従来の手法では, 微妙な幾何学的特徴の微妙なマッチングに難渋した。
これらの制限を克服するために,クロスアテンショントランスフォーマーを用いた点ベースおよびボクセルベースのアプローチを融合する手法としてCASSPRを提案する。
CASSPRは、低解像度で情報を抽出・集約するためのスパースボクセルブランチと、きめ細かいローカル情報を得るためのポイントワイズブランチを利用する。
CASSPRは、一方のブランチからのクエリを使用して、もう一方のブランチの構造にマッチし、両方がポイントクラウドの自己完結した記述子を抽出する(ひとつのブランチが支配する)が、両方を使用してポイントクラウドの出力グローバル記述子を通知する。
広範な実験により、cassprはいくつかのデータセット(oxford robotcar, tum, usyd)で最先端技術を超えていることが示された。
例えば、TUMデータセットで85.6%のAR@1を達成し、最強の事前モデルを約15%上回っている。
私たちのコードは公開されています。
関連論文リスト
- SALSA: Swift Adaptive Lightweight Self-Attention for Enhanced LiDAR Place Recognition [9.216146804584614]
本稿では,LiDAR位置認識のための新しい,軽量で効率的なフレームワークであるSALSAを提案する。
Sphereformerのバックボーンで構成されており、半径方向の窓の注意を使って、疎い離れた地点の情報を集約することができる。
リアルタイムに動作しながら、検索とメートル法の両方のローカライゼーションの観点から、様々なLiDAR位置認識データセット上の既存の手法より優れている。
論文 参考訳(メタデータ) (2024-07-11T08:00:19Z) - SparseDet: A Simple and Effective Framework for Fully Sparse LiDAR-based 3D Object Detection [14.137208879448389]
LiDARベースのスパース3Dオブジェクト検出は、自動運転アプリケーションにおいて重要な役割を果たす。
既存のメソッドでは、単一の中央のvoxelの機能をオブジェクトプロキシとして使用するか、フォアグラウンドポイントの集約されたクラスタをオブジェクトプロキシとして扱う。
本稿では,スパースクエリをオブジェクトプロキシとして設計するSparseDetを提案する。
論文 参考訳(メタデータ) (2024-06-16T12:11:44Z) - That's My Point: Compact Object-centric LiDAR Pose Estimation for
Large-scale Outdoor Localisation [18.26335698291226]
本稿では,LiDARスキャンにおける3次元ポーズ推定について述べる。
セグメント化されたスキャンのすべての点をセマンティックオブジェクトにクラスタリングし、それらをそれぞれのセントロイドとセマンティッククラスでのみ表現することで、これを実現する。
ほぼ半分の表現サイズを持つ最先端の手法に匹敵する正確な距離推定を実現する。
論文 参考訳(メタデータ) (2024-03-07T18:55:30Z) - Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud Matching [0.0]
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
ラプラシアン固有写像の順序と符号のあいまいさに対処するために、結合ラプラシアンと呼ばれる新しい作用素を導入する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - CPR++: Object Localization via Single Coarse Point Supervision [55.8671776333499]
粗い点修正(CPR)は、アルゴリズムの観点からの意味的分散を緩和する最初の試みである。
CPRは、アノテートされた最初のポイントを置き換えるために、近隣地域のセマンティックセンターポイントを選択することで意味のばらつきを減らす。
CPR++は、スケール情報を取得し、グローバル領域における意味的分散をさらに低減することができる。
論文 参考訳(メタデータ) (2024-01-30T17:38:48Z) - Learning Continuous Implicit Field with Local Distance Indicator for
Arbitrary-Scale Point Cloud Upsampling [55.05706827963042]
点雲アップサンプリングは、疎点雲から密度が高く均一に分散した点集合を生成することを目的としている。
従来のメソッドは通常、スパースポイントクラウドをいくつかのローカルパッチ、アップサンプルパッチポイント、すべてのアップサンプルパッチにマージする。
そこで本研究では,点雲のアップサンプリングのために,局所的な先行者によって導かれる符号のない距離場を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-23T01:52:14Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Fast Point Voxel Convolution Neural Network with Selective Feature
Fusion for Point Cloud Semantic Segmentation [7.557684072809662]
本稿では,ポイントクラウド解析のための軽量畳み込みニューラルネットワークを提案する。
本手法はサンプリングなしで全点集合上で動作し,効率よく性能を向上する。
論文 参考訳(メタデータ) (2021-09-23T19:39:01Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。