論文の概要: PVT3D: Point Voxel Transformers for Place Recognition from Sparse Lidar
Scans
- arxiv url: http://arxiv.org/abs/2211.12542v1
- Date: Tue, 22 Nov 2022 19:18:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:05:07.828517
- Title: PVT3D: Point Voxel Transformers for Place Recognition from Sparse Lidar
Scans
- Title(参考訳): PVT3D:スパースライダースカンからの位置認識のための点ボクセル変換器
- Authors: Yan Xia, Mariia Gladkova, Rui Wang, Jo\~ao F. Henriques, Daniel
Cremers, Uwe Stilla
- Abstract要約: ポイントクラウド(LiDAR)スキャンに基づく位置認識は、ロボットや自動運転車において堅牢な自律性を達成するための重要なモジュールである。
本稿では,低メモリ要求量でのきめ細かなマッチングを実現するために,PVT3D(Point-Voxel Transformer Network)を提案する。
- 参考スコア(独自算出の注目度): 47.949486707455705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Place recognition based on point cloud (LiDAR) scans is an important module
for achieving robust autonomy in robots or self-driving vehicles. Training deep
networks to match such scans presents a difficult trade-off: a higher spatial
resolution of the network's intermediate representations is needed to perform
fine-grained matching of subtle geometric features, but growing it too large
makes the memory requirements infeasible. In this work, we propose a
Point-Voxel Transformer network (PVT3D) that achieves robust fine-grained
matching with low memory requirements. It leverages a sparse voxel branch to
extract and aggregate information at a lower resolution and a point-wise branch
to obtain fine-grained local information. A novel hierarchical cross-attention
transformer (HCAT) uses queries from one branch to try to match structures in
the other branch, ensuring that both extract self-contained descriptors of the
point cloud (rather than one branch dominating), but using both to inform the
output global descriptor of the point cloud. Extensive experiments show that
the proposed PVT3D method surpasses the state-of-the-art by a large amount on
several datasets (Oxford RobotCar, TUM, USyd). For instance, we achieve AR@1 of
85.6% on the TUM dataset, which surpasses the strongest prior model by ~15%.
- Abstract(参考訳): ポイントクラウド(LiDAR)スキャンに基づく位置認識は、ロボットや自動運転車において堅牢な自律性を達成するための重要なモジュールである。
微妙な幾何学的特徴のきめ細かいマッチングを行うために、ネットワークの中間表現の高解像度な空間解像度が必要であるが、それを増大させることでメモリ要求が実現できない。
そこで本研究では,低メモリ要求量での高精細マッチングを実現するために,PVT3D(Point-Voxel Transformer Network)を提案する。
スパース・ボクセル・ブランチを利用して、低い解像度で情報を抽出し集約し、ポイントワイズ・ブランチできめ細かいローカル情報を得る。
新たな階層的クロスアテンショントランス(hcat)は、一方のブランチからのクエリを使用して、他方のブランチの構造をマッチングし、(一方のブランチが支配するよりも)ポイントクラウドの自己完結したディスクリプタを抽出すると同時に、出力されたポイントクラウドのグローバルディスクリプタに通知する。
大規模な実験により,提案手法はいくつかのデータセット(Oxford RobotCar, TUM, USyd)において,最先端技術を超えることが判明した。
例えば、tumデータセット上で85.6%のar@1を達成しています。
関連論文リスト
- That's My Point: Compact Object-centric LiDAR Pose Estimation for
Large-scale Outdoor Localisation [18.26335698291226]
本稿では,LiDARスキャンにおける3次元ポーズ推定について述べる。
セグメント化されたスキャンのすべての点をセマンティックオブジェクトにクラスタリングし、それらをそれぞれのセントロイドとセマンティッククラスでのみ表現することで、これを実現する。
ほぼ半分の表現サイズを持つ最先端の手法に匹敵する正確な距離推定を実現する。
論文 参考訳(メタデータ) (2024-03-07T18:55:30Z) - Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud
Matching [0.0]
ポイントクラウドマッチングは、コンピュータビジョン、医療、ロボット分野において重要な技術である。
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - Deep Homography Estimation for Visual Place Recognition [51.70437924779968]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - CPR++: Object Localization via Single Coarse Point Supervision [55.8671776333499]
粗い点修正(CPR)は、アルゴリズムの観点からの意味的分散を緩和する最初の試みである。
CPRは、アノテートされた最初のポイントを置き換えるために、近隣地域のセマンティックセンターポイントを選択することで意味のばらつきを減らす。
CPR++は、スケール情報を取得し、グローバル領域における意味的分散をさらに低減することができる。
論文 参考訳(メタデータ) (2024-01-30T17:38:48Z) - Learning Continuous Implicit Field with Local Distance Indicator for
Arbitrary-Scale Point Cloud Upsampling [55.05706827963042]
点雲アップサンプリングは、疎点雲から密度が高く均一に分散した点集合を生成することを目的としている。
従来のメソッドは通常、スパースポイントクラウドをいくつかのローカルパッチ、アップサンプルパッチポイント、すべてのアップサンプルパッチにマージする。
そこで本研究では,点雲のアップサンプリングのために,局所的な先行者によって導かれる符号のない距離場を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-23T01:52:14Z) - Point Cloud Classification Using Content-based Transformer via
Clustering in Feature Space [25.57569871876213]
本稿では,PointConTと呼ばれるポイントコンテントベースのトランスフォーマーアーキテクチャを提案する。
特徴空間内の点(コンテンツベース)の局所性を利用して、類似した特徴を持つサンプルポイントを同じクラスにクラスタし、各クラス内の自己アテンションを計算する。
また,各枝の高周波・低周波情報を並列構造を用いて個別に集約するインセプション機能アグリゲータも導入した。
論文 参考訳(メタデータ) (2023-03-08T14:11:05Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - DSC: Deep Scan Context Descriptor for Large-Scale Place Recognition [4.878199122477076]
LiDARに基づく位置認識は、ループ閉鎖検出とグローバル再局在の両方において必須かつ困難な課題である。
本稿では,ポイントクラウドのセグメント間の関係をキャプチャする,汎用的で差別的なグローバル記述子であるDeep Scan Context (DSC)を提案する。
論文 参考訳(メタデータ) (2021-11-27T07:31:32Z) - Fast Point Voxel Convolution Neural Network with Selective Feature
Fusion for Point Cloud Semantic Segmentation [7.557684072809662]
本稿では,ポイントクラウド解析のための軽量畳み込みニューラルネットワークを提案する。
本手法はサンプリングなしで全点集合上で動作し,効率よく性能を向上する。
論文 参考訳(メタデータ) (2021-09-23T19:39:01Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。