論文の概要: Self-positioning Point-based Transformer for Point Cloud Understanding
- arxiv url: http://arxiv.org/abs/2303.16450v1
- Date: Wed, 29 Mar 2023 04:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 16:05:47.690396
- Title: Self-positioning Point-based Transformer for Point Cloud Understanding
- Title(参考訳): ポイントクラウド理解のための自己配置ポイントベース変圧器
- Authors: Jinyoung Park, Sanghyeok Lee, Sihyeon Kim, Yunyang Xiong, Hyunwoo J.
Kim
- Abstract要約: セルフポジショニングポイントベースのトランスフォーマー(SPoTr)は、局所的およびグローバルな形状のコンテキストを複雑さを減らしてキャプチャするように設計されている。
SPoTrは、ScanObjectNNを用いた形状分類における以前の最良のモデルよりも精度が2.6%向上している。
- 参考スコア(独自算出の注目度): 18.394318824968263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have shown superior performance on various computer vision tasks
with their capabilities to capture long-range dependencies. Despite the
success, it is challenging to directly apply Transformers on point clouds due
to their quadratic cost in the number of points. In this paper, we present a
Self-Positioning point-based Transformer (SPoTr), which is designed to capture
both local and global shape contexts with reduced complexity. Specifically,
this architecture consists of local self-attention and self-positioning
point-based global cross-attention. The self-positioning points, adaptively
located based on the input shape, consider both spatial and semantic
information with disentangled attention to improve expressive power. With the
self-positioning points, we propose a novel global cross-attention mechanism
for point clouds, which improves the scalability of global self-attention by
allowing the attention module to compute attention weights with only a small
set of self-positioning points. Experiments show the effectiveness of SPoTr on
three point cloud tasks such as shape classification, part segmentation, and
scene segmentation. In particular, our proposed model achieves an accuracy gain
of 2.6% over the previous best models on shape classification with
ScanObjectNN. We also provide qualitative analyses to demonstrate the
interpretability of self-positioning points. The code of SPoTr is available at
https://github.com/mlvlab/SPoTr.
- Abstract(参考訳): トランスフォーマーは、様々なコンピュータビジョンタスクにおいて、長距離依存をキャプチャする能力で優れたパフォーマンスを示している。
成功にもかかわらず、ポイント数の2次コストのため、ポイントクラウドにTransformerを直接適用することは困難である。
本稿では,局所的およびグローバルな形状のコンテキストを複雑度を低減してキャプチャするセルフ・ポジショニング・ポイントベース変換器(SPoTr)を提案する。
具体的には、このアーキテクチャは局所的な自己着地と自己着地点に基づくグローバルな相互着地からなる。
入力形状に基づいて適応的に位置する自己位置決めポイントは,空間情報と意味情報の両方を考慮し,表現力を向上させる。
自己配置点を用いて,注目モジュールが少数の自己配置点のみを用いて注目重みを計算できるようにすることにより,グローバルな自己配置のスケーラビリティを向上させる,ポイントクラウドのための新たなグローバルな相互配置機構を提案する。
実験では,形状分類,部分分割,シーンセグメンテーションなどの3点クラウドタスクにおけるスポラの有効性を示す。
特に,ScanObjectNNを用いた形状分類では,従来の最良モデルに比べて2.6%の精度向上を実現している。
また,自己配置点の解釈可能性を示す定性解析も提供する。
SPoTrのコードはhttps://github.com/mlvlab/SPoTrで公開されている。
関連論文リスト
- Point Tree Transformer for Point Cloud Registration [33.00645881490638]
ポイントクラウド登録は、コンピュータビジョンとロボティクスの分野における基本的なタスクである。
本稿では,局所的特徴とグローバルな特徴を効率的に抽出する,ポイントクラウド登録のためのトランスフォーマーベースの新しいアプローチを提案する。
本手法は最先端の手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2024-06-25T13:14:26Z) - Collect-and-Distribute Transformer for 3D Point Cloud Analysis [82.03517861433849]
本稿では,点雲の短距離・長距離コンテキストを通信するための収集・分散機構を備えた新しい変圧器ネットワークを提案する。
その結果,提案したCDFormerの有効性が示され,ポイントクラウドの分類とセグメンテーションタスクにおける最先端のパフォーマンスがいくつか提供された。
論文 参考訳(メタデータ) (2023-06-02T03:48:45Z) - PointPatchMix: Point Cloud Mixing with Patch Scoring [58.58535918705736]
我々は、パッチレベルでポイントクラウドを混合し、混合ポイントクラウドのコンテンツベースターゲットを生成するPointPatchMixを提案する。
パッチスコアリングモジュールは、事前学習した教師モデルから、コンテンツに基づく重要度スコアに基づいて目標を割り当てる。
Point-MAE をベースラインとして,ScanObjectNN では86.3%,ModelNet40 では94.1% の精度で,従来の手法をかなり上回りました。
論文 参考訳(メタデータ) (2023-03-12T14:49:42Z) - Point Cloud Recognition with Position-to-Structure Attention
Transformers [24.74805434602145]
Position-to-Structure Attention Transformer (PS-Former) は3Dポイントクラウド認識のためのトランスフォーマーベースのアルゴリズムである。
PS-Formerは、固定グリッド構造にポイントが配置されていない3Dポイントクラウド表現の課題に対処する。
PS-Formerは、分類、部分セグメンテーション、シーンセグメンテーションを含む3つの3Dポイントクラウドタスクに対して、競争力のある実験結果を示す。
論文 参考訳(メタデータ) (2022-10-05T05:40:33Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Point Set Self-Embedding [63.23565826873297]
この研究は、高密度な点の情報を視覚的だが知覚不可能な形でスペーサーバージョンにエンコードする、点集合自己埋め込みの革新的な方法を示す。
自己埋め込みポイントセットは、通常のダウンサンプルとして機能し、モバイルデバイス上で効率的に視覚化することができる。
リモートサーバ上で詳細な分析を行うために,自己埋め込み情報を活用して,元のポイントセットを完全に復元する。
論文 参考訳(メタデータ) (2022-02-28T07:03:33Z) - PU-Transformer: Point Cloud Upsampling Transformer [38.05362492645094]
我々は、疎入力データから高密度高忠実点雲を生成することを目的とした点群アップサンプリングタスクに焦点をあてる。
具体的には,特徴表現における変換器の強みを活性化するために,多頭部自己注意構造の新しい変種を開発する。
我々は,従来のCNN手法と比較し,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-24T03:25:35Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - 3D Object Detection with Pointformer [29.935891419574602]
本稿では,3dポイントクラウドのためのトランスフォーマーバックボーンであるpointformerを提案する。
ローカルトランスフォーマーモジュールは、オブジェクトレベルでコンテキスト依存の領域特徴を学習するローカル領域のポイント間の相互作用をモデル化するために使用される。
Global Transformerは、シーンレベルでコンテキスト対応の表現を学ぶように設計されている。
論文 参考訳(メタデータ) (2020-12-21T15:12:54Z) - Point Transformer [122.2917213154675]
セルフアテンションネットワークを3Dポイントクラウド処理に適用することを検討する。
ポイントクラウドのセルフアテンションレイヤを設計し、セマンティックシーンセグメンテーションなどのタスクのためのセルフアテンションネットワークの構築に使用します。
ポイントトランスフォーマーの設計は、ドメインやタスク間の事前作業を改善する。
論文 参考訳(メタデータ) (2020-12-16T18:58:56Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。