論文の概要: HiTPR: Hierarchical Transformer for Place Recognition in Point Cloud
- arxiv url: http://arxiv.org/abs/2204.05481v1
- Date: Tue, 12 Apr 2022 02:12:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:15:15.570101
- Title: HiTPR: Hierarchical Transformer for Place Recognition in Point Cloud
- Title(参考訳): HiTPR: ポイントクラウドにおける位置認識のための階層変換器
- Authors: Zhixing Hou, Yan Yan, Chengzhong Xu and Hui Kong
- Abstract要約: 位置認識のための階層変換器(HiTPR)を提案する。
HiTPRは、ポイントセル生成、ショートレンジトランスフォーマー(SRT)、ロングレンジトランスフォーマー(LRT)、グローバルディスクリプタアグリゲーションの4つの主要部分から構成される。
いくつかの標準ベンチマークの実験は、平均リコール率の点でHiTPRの優位性を示している。
- 参考スコア(独自算出の注目度): 40.03582202756307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Place recognition or loop closure detection is one of the core components in
a full SLAM system. In this paper, aiming at strengthening the relevancy of
local neighboring points and the contextual dependency among global points
simultaneously, we investigate the exploitation of transformer-based network
for feature extraction, and propose a Hierarchical Transformer for Place
Recognition (HiTPR). The HiTPR consists of four major parts: point cell
generation, short-range transformer (SRT), long-range transformer (LRT) and
global descriptor aggregation. Specifically, the point cloud is initially
divided into a sequence of small cells by downsampling and nearest neighbors
searching. In the SRT, we extract the local feature for each point cell. While
in the LRT, we build the global dependency among all of the point cells in the
whole point cloud. Experiments on several standard benchmarks demonstrate the
superiority of the HiTPR in terms of average recall rate, achieving 93.71% at
top 1% and 86.63% at top 1 on the Oxford RobotCar dataset for example.
- Abstract(参考訳): 位置認識またはループ閉鎖検出は、完全なSLAMシステムの中核コンポーネントの1つである。
本稿では,局所的隣接点の関連性とグローバル点間の文脈依存性を同時に強化することを目的として,特徴抽出のためのトランスフォーマーネットワークの活用について検討し,位置認識のための階層変換器(HiTPR)を提案する。
HiTPRは、ポイントセル生成、ショートレンジトランスフォーマー(SRT)、ロングレンジトランスフォーマー(LRT)、グローバルディスクリプタアグリゲーションの4つの主要部分から構成される。
具体的には、点雲は最初、ダウンサンプリングと最も近い隣人の探索によって小さな細胞列に分けられる。
srtでは、各点セルの局所的な特徴を抽出する。
LRTでは、全ポイントクラウド内のすべてのポイントセル間でグローバルな依存関係を構築しています。
いくつかの標準ベンチマークの実験では、平均リコール率においてHiTPRの優位性が示され、例えばオックスフォード・ロボカル・データセットの上位1位で93.71%、86.63%を記録した。
関連論文リスト
- GSTran: Joint Geometric and Semantic Coherence for Point Cloud Segmentation [33.72549134362884]
本稿では,セグメント化作業に適した新しい変圧器ネットワークであるGSTranを提案する。
提案するネットワークは主に,局所幾何学変換器と大域意味変換器の2つの主成分から構成される。
ShapeNetPartとS3DISベンチマークの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-21T12:12:37Z) - Other Tokens Matter: Exploring Global and Local Features of Vision Transformers for Object Re-Identification [63.147482497821166]
我々はまず,ViTのグローバルおよびローカルな特徴の影響を探求し,高性能オブジェクトRe-IDのための新しいグローバルローカ変換器(GLTrans)を提案する。
提案手法は,4つのオブジェクトRe-IDベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2024-04-23T12:42:07Z) - Isomer: Isomerous Transformer for Zero-shot Video Object Segmentation [59.91357714415056]
コンテクスト共有変換器(CST)とセマンティックガザリング散乱変換器(SGST)の2つの変種を提案する。
CSTは、軽量な計算により、画像フレーム内のグローバル共有コンテキスト情報を学習し、SGSTは、前景と背景のセマンティック相関を別々にモデル化する。
多段核融合にバニラ変換器を使用するベースラインと比較して,我々は13倍の速度向上を実現し,新しい最先端ZVOS性能を実現する。
論文 参考訳(メタデータ) (2023-08-13T06:12:00Z) - Exploiting Inductive Bias in Transformer for Point Cloud Classification
and Segmentation [22.587913528540465]
本稿では,新しいインダクティブバイアス支援トランス (IBT) 法を設計し,点間関係を学習する。
局所的特徴学習は相対的位置、注意的特徴プーリングを通じて行われる。
分類タスクと分割タスクにおいて,その優位性を実験的に示す。
論文 参考訳(メタデータ) (2023-04-27T12:17:35Z) - Self-positioning Point-based Transformer for Point Cloud Understanding [18.394318824968263]
セルフポジショニングポイントベースのトランスフォーマー(SPoTr)は、局所的およびグローバルな形状のコンテキストを複雑さを減らしてキャプチャするように設計されている。
SPoTrは、ScanObjectNNを用いた形状分類における以前の最良のモデルよりも精度が2.6%向上している。
論文 参考訳(メタデータ) (2023-03-29T04:27:11Z) - Full Point Encoding for Local Feature Aggregation in 3D Point Clouds [29.402585297221457]
畳み込みおよびトランスフォーマーアーキテクチャに適用可能な全点符号化を提案する。
鍵となる考え方は、局所的および大域的な幾何学的接続から重みを適応的に学習することである。
S3DIS 6倍の76% mIoU と S3DIS Area5 の72.2% の最先端セマンティックセグメンテーション結果を得た。
論文 参考訳(メタデータ) (2023-03-08T09:14:17Z) - BPT: Binary Point Cloud Transformer for Place Recognition [30.749570675511386]
位置認識のための二元点雲変換器を提案する。
32ビットの完全精度モデルは、メモリ占有が少なく、より高速な二項化ビット演算が可能な1ビットモデルに還元することができる。
いくつかの標準ベンチマーク実験により,提案手法は対応する完全精度変圧器モデルと同等の結果が得られることが示された。
論文 参考訳(メタデータ) (2023-03-02T11:15:59Z) - APP-Net: Auxiliary-point-based Push and Pull Operations for Efficient
Point Cloud Classification [48.230170172837084]
ポイントクラウドベースの3D分類タスクでは、隣のポイントから機能を集約する。
これらの問題に対処するため,我々はAPPと呼ばれる線形複雑性の局所アグリゲータを提案する。
オンラインの正規推定モジュールを使用して、説明可能な幾何学情報を提供し、APPモデリング機能を強化します。
論文 参考訳(メタデータ) (2022-05-02T12:21:11Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - Unifying Global-Local Representations in Salient Object Detection with Transformer [55.23033277636774]
我々は、視覚変換器という新しいアテンションベースのエンコーダを有能な物体検出に導入する。
非常に浅い層でのグローバルビューでは、トランスフォーマーエンコーダはより局所的な表現を保持する。
提案手法は,5つのベンチマークにおいて,他のFCN法およびトランスフォーマー法よりも優れていた。
論文 参考訳(メタデータ) (2021-08-05T17:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。