論文の概要: Stratified Transformer for 3D Point Cloud Segmentation
- arxiv url: http://arxiv.org/abs/2203.14508v1
- Date: Mon, 28 Mar 2022 05:35:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:06:49.375982
- Title: Stratified Transformer for 3D Point Cloud Segmentation
- Title(参考訳): 3次元点雲分割用成層変圧器
- Authors: Xin Lai, Jianhui Liu, Li Jiang, Liwei Wang, Hengshuang Zhao, Shu Liu,
Xiaojuan Qi, Jiaya Jia
- Abstract要約: Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
- 参考スコア(独自算出の注目度): 89.9698499437732
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D point cloud segmentation has made tremendous progress in recent years.
Most current methods focus on aggregating local features, but fail to directly
model long-range dependencies. In this paper, we propose Stratified Transformer
that is able to capture long-range contexts and demonstrates strong
generalization ability and high performance. Specifically, we first put forward
a novel key sampling strategy. For each query point, we sample nearby points
densely and distant points sparsely as its keys in a stratified way, which
enables the model to enlarge the effective receptive field and enjoy long-range
contexts at a low computational cost. Also, to combat the challenges posed by
irregular point arrangements, we propose first-layer point embedding to
aggregate local information, which facilitates convergence and boosts
performance. Besides, we adopt contextual relative position encoding to
adaptively capture position information. Finally, a memory-efficient
implementation is introduced to overcome the issue of varying point numbers in
each window. Extensive experiments demonstrate the effectiveness and
superiority of our method on S3DIS, ScanNetv2 and ShapeNetPart datasets. Code
is available at https://github.com/dvlab-research/Stratified-Transformer.
- Abstract(参考訳): 3Dポイントのクラウドセグメンテーションは、近年大きく進歩している。
現在のほとんどのメソッドは、ローカル機能の集約にフォーカスしているが、長距離依存関係を直接モデル化することができない。
本稿では,長距離の文脈をキャプチャし,強汎化能力と高性能を実現する階層化トランスを提案する。
具体的には,まず,新しいキーサンプリング戦略を提案する。
各問合せ点について,各問合せ点について,密集点と遠点をその鍵として疎結合にサンプリングし,有効受容場を拡大し,計算コストの低い長距離コンテキストを楽しめるようにした。
また,不規則な点配置によって生じる課題に対処するため,局所情報を集約する第1層点埋め込みを提案する。
また,位置情報を適応的に取得するために,文脈的相対位置符号化を採用する。
最後に、各ウィンドウにおける点数の変化の問題を克服するために、メモリ効率の高い実装が導入される。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す。
コードはhttps://github.com/dvlab-research/Stratified-Transformerで入手できる。
関連論文リスト
- ConDaFormer: Disassembled Transformer with Local Structure Enhancement
for 3D Point Cloud Understanding [105.98609765389895]
トランスフォーマーは、最近3Dポイントクラウド理解のために研究されている。
0.1万を超える多数のポイントは、ポイントクラウドデータに対してグローバルな自己注意を可能にする。
本稿では,ConDaFormerという新しい変圧器ブロックを開発する。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - PVT-SSD: Single-Stage 3D Object Detector with Point-Voxel Transformer [75.2251801053839]
単段3次元検出用ポイント・ボクセル変換器(PVT-SSD)を提案する。
本稿では,voxel から長時間のコンテキストを安価に取得できる Point-Voxel Transformer (PVT) モジュールを提案する。
いくつかの自律走行ベンチマーク実験は,提案手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2023-05-11T07:37:15Z) - Point Cloud Classification Using Content-based Transformer via
Clustering in Feature Space [25.57569871876213]
本稿では,PointConTと呼ばれるポイントコンテントベースのトランスフォーマーアーキテクチャを提案する。
特徴空間内の点(コンテンツベース)の局所性を利用して、類似した特徴を持つサンプルポイントを同じクラスにクラスタし、各クラス内の自己アテンションを計算する。
また,各枝の高周波・低周波情報を並列構造を用いて個別に集約するインセプション機能アグリゲータも導入した。
論文 参考訳(メタデータ) (2023-03-08T14:11:05Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。