論文の概要: Point Cloud Recognition with Position-to-Structure Attention
Transformers
- arxiv url: http://arxiv.org/abs/2210.02030v1
- Date: Wed, 5 Oct 2022 05:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:00:07.054396
- Title: Point Cloud Recognition with Position-to-Structure Attention
Transformers
- Title(参考訳): 位置-構造間アテンション変換器を用いた点雲認識
- Authors: Zheng Ding, James Hou, Zhuowen Tu
- Abstract要約: Position-to-Structure Attention Transformer (PS-Former) は3Dポイントクラウド認識のためのトランスフォーマーベースのアルゴリズムである。
PS-Formerは、固定グリッド構造にポイントが配置されていない3Dポイントクラウド表現の課題に対処する。
PS-Formerは、分類、部分セグメンテーション、シーンセグメンテーションを含む3つの3Dポイントクラウドタスクに対して、競争力のある実験結果を示す。
- 参考スコア(独自算出の注目度): 24.74805434602145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present Position-to-Structure Attention Transformers
(PS-Former), a Transformer-based algorithm for 3D point cloud recognition.
PS-Former deals with the challenge in 3D point cloud representation where
points are not positioned in a fixed grid structure and have limited feature
description (only 3D coordinates ($x, y, z$) for scattered points). Existing
Transformer-based architectures in this domain often require a pre-specified
feature engineering step to extract point features. Here, we introduce two new
aspects in PS-Former: 1) a learnable condensation layer that performs point
downsampling and feature extraction; and 2) a Position-to-Structure Attention
mechanism that recursively enriches the structural information with the
position attention branch. Compared with the competing methods, while being
generic with less heuristics feature designs, PS-Former demonstrates
competitive experimental results on three 3D point cloud tasks including
classification, part segmentation, and scene segmentation.
- Abstract(参考訳): 本稿では,3次元点クラウド認識のためのトランスフォーマティブ・アルゴリズムであるps-former( position-to-structure attention transformers)を提案する。
PS-Formerは、固定グリッド構造に点が配置されず、限られた特徴記述(散在する点に対して3D座標(x, y, z$)のみ)を持つ3Dポイントクラウド表現の課題に対処する。
この領域の既存のTransformerベースのアーキテクチャは、しばしばポイントを抽出するために、事前に定義された機能エンジニアリングステップを必要とする。
ここではPS-Formerの2つの新しい側面を紹介する。
1)ポイントダウンサンプリングおよび特徴抽出を行う学習可能な凝縮層、
2) 位置注意分岐により構造情報を再帰的に高める位置から構造への注意機構。
競合する手法と比較すると、ヒューリスティックな特徴設計は少ないが、ps-formerは分類、部分分割、シーンセグメンテーションを含む3つの3dポイントクラウドタスクで競合する実験結果を示している。
関連論文リスト
- ConDaFormer: Disassembled Transformer with Local Structure Enhancement
for 3D Point Cloud Understanding [105.98609765389895]
トランスフォーマーは、最近3Dポイントクラウド理解のために研究されている。
0.1万を超える多数のポイントは、ポイントクラウドデータに対してグローバルな自己注意を可能にする。
本稿では,ConDaFormerという新しい変圧器ブロックを開発する。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Self-positioning Point-based Transformer for Point Cloud Understanding [18.394318824968263]
セルフポジショニングポイントベースのトランスフォーマー(SPoTr)は、局所的およびグローバルな形状のコンテキストを複雑さを減らしてキャプチャするように設計されている。
SPoTrは、ScanObjectNNを用いた形状分類における以前の最良のモデルよりも精度が2.6%向上している。
論文 参考訳(メタデータ) (2023-03-29T04:27:11Z) - Position-Guided Point Cloud Panoptic Segmentation Transformer [118.17651196656178]
この作業は、LiDARベースのポイントクラウドセグメンテーションにこの魅力的なパラダイムを適用し、シンプルだが効果的なベースラインを得ることから始まります。
スパース点雲のインスタンスはシーン全体に対して比較的小さく、しばしば類似した形状を持つが、画像領域では珍しいセグメンテーションの外観が欠如している。
position-guided Point cloud Panoptic segmentation transFormer (P3Former) と名付けられたこの手法は、Semantic KITTI と nuScenes のベンチマークでそれぞれ3.4%、そして 1.2%の性能をそれぞれ上回っている。
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Learning a Task-specific Descriptor for Robust Matching of 3D Point
Clouds [40.81429160296275]
我々は、干渉下での正しい点対応を一貫して記述するために、頑健なタスク固有の特徴記述子を学習する。
EDFNetは2つの側面から発展し,まず,その反復的局所構造を利用して対応性を向上させる。
論文 参考訳(メタデータ) (2022-10-26T17:57:23Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - SeedFormer: Patch Seeds based Point Cloud Completion with Upsample
Transformer [46.800630776714016]
本稿では,ポイントクラウド完了時の細部保存と回復の能力を向上させるための新しいSeedFormerを提案する。
我々は、部分的な入力から一般的な構造をキャプチャするだけでなく、局所的なパターンの地域情報も保存する新しい形状表現、すなわち、パッチシードを導入する。
提案手法は,複数のベンチマークデータセット上で,最先端のコンプリートネットワークの性能を向上する。
論文 参考訳(メタデータ) (2022-07-21T06:15:59Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - Learning Local Displacements for Point Cloud Completion [93.54286830844134]
本稿では,3次元点雲として表現された部分的スキャンからオブジェクトとセマンティックシーンを補完する手法を提案する。
アーキテクチャはエンコーダ-デコーダ構造内で連続的に使用される3つの新しいレイヤに依存している。
オブジェクトと屋内の両方のシーン完了タスクにおけるアーキテクチャの評価を行い、最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-30T18:31:37Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。