論文の概要: APPT : Asymmetric Parallel Point Transformer for 3D Point Cloud
Understanding
- arxiv url: http://arxiv.org/abs/2303.17815v1
- Date: Fri, 31 Mar 2023 06:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 15:08:59.397009
- Title: APPT : Asymmetric Parallel Point Transformer for 3D Point Cloud
Understanding
- Title(参考訳): 3次元クラウド理解のための非対称並列点変換器APPT
- Authors: Hengjia Li, Tu Zheng, Zhihao Chi, Zheng Yang, Wenxiao Wang, Boxi Wu,
Binbin Lin, Deng Cai
- Abstract要約: トランスフォーマーベースのネットワークは、3Dポイントクラウド理解において素晴らしいパフォーマンスを達成した。
これらの問題に対処するために,非対称並列点変換器(APPT)を提案する。
APPTは、ローカル詳細機能に集中しながら、ネットワーク全体を通して機能を取り込むことができる。
- 参考スコア(独自算出の注目度): 20.87092793669536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based networks have achieved impressive performance in 3D point
cloud understanding. However, most of them concentrate on aggregating local
features, but neglect to directly model global dependencies, which results in a
limited effective receptive field. Besides, how to effectively incorporate
local and global components also remains challenging. To tackle these problems,
we propose Asymmetric Parallel Point Transformer (APPT). Specifically, we
introduce Global Pivot Attention to extract global features and enlarge the
effective receptive field. Moreover, we design the Asymmetric Parallel
structure to effectively integrate local and global information. Combined with
these designs, APPT is able to capture features globally throughout the entire
network while focusing on local-detailed features. Extensive experiments show
that our method outperforms the priors and achieves state-of-the-art on several
benchmarks for 3D point cloud understanding, such as 3D semantic segmentation
on S3DIS, 3D shape classification on ModelNet40, and 3D part segmentation on
ShapeNet.
- Abstract(参考訳): トランスフォーマーベースのネットワークは、3Dポイントクラウド理解において素晴らしいパフォーマンスを達成した。
しかし、その多くは局所的な特徴の集約に重点を置いているが、グローバルな依存関係を直接モデル化することは無視されている。
さらに、ローカルコンポーネントやグローバルコンポーネントを効果的に組み込む方法も課題です。
これらの問題に対処するために,非対称並列点変換器(APPT)を提案する。
具体的には,グローバルな特徴を抽出し,有効受容場を拡大するためにグローバルなPivot Attentionを導入する。
さらに,局所情報とグローバル情報を効果的に統合するために,非対称並列構造を設計する。
これらの設計と組み合わせて、APPTはローカル詳細機能に集中しながら、ネットワーク全体を通して機能を取り込むことができる。
s3disの3d意味セマンティクスセグメンテーション,modelnet40の3d形状分類,shapenetの3d部分セグメンテーションなど,3dポイントクラウド理解のためのいくつかのベンチマークにおいて,本手法は先行手法よりも優れており,最先端の手法であることを示す。
関連論文リスト
- Point Cloud Understanding via Attention-Driven Contrastive Learning [64.65145700121442]
トランスフォーマーベースのモデルは、自己認識機構を活用することにより、先進的なポイントクラウド理解を持つ。
PointACLは、これらの制限に対処するために設計された、注意駆動のコントラスト学習フレームワークである。
本手法では, 注意駆動型動的マスキング手法を用いて, モデルが非集中領域に集中するように誘導する。
論文 参考訳(メタデータ) (2024-11-22T05:41:00Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Full Point Encoding for Local Feature Aggregation in 3D Point Clouds [29.402585297221457]
畳み込みおよびトランスフォーマーアーキテクチャに適用可能な全点符号化を提案する。
鍵となる考え方は、局所的および大域的な幾何学的接続から重みを適応的に学習することである。
S3DIS 6倍の76% mIoU と S3DIS Area5 の72.2% の最先端セマンティックセグメンテーション結果を得た。
論文 参考訳(メタデータ) (2023-03-08T09:14:17Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Bidirectional Feature Globalization for Few-shot Semantic Segmentation
of 3D Point Cloud Scenes [1.8374319565577157]
本稿では,グローバルな認識を局所的な特徴に組み込むために,双方向機能グローバリゼーション(BFG)アプローチを提案する。
プロトタイプ・ツー・ポイントのグローバル化(Pr2PoG)により、グローバルな認識は、疎いプロトタイプから高密度な特徴への類似度重みに基づく局所的な特徴に埋め込まれる。
グローバルな知覚に埋め込まれた各クラスのスパースプロトタイプは、数発の3Dセグメンテーションのための単一のプロトタイプに要約される。
論文 参考訳(メタデータ) (2022-08-13T15:04:20Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - Conformer: Local Features Coupling Global Representations for Visual
Recognition [72.9550481476101]
本稿では,畳み込み操作と自己アテンション機構を利用した表現学習のためのハイブリッドネットワーク構造,conformerを提案する。
実験では、コンフォーマーが同等のパラメータ複雑性の下で視覚変換器(DeiT-B)を2.3%上回ることが示されている。
論文 参考訳(メタデータ) (2021-05-09T10:00:03Z) - PIG-Net: Inception based Deep Learning Architecture for 3D Point Cloud
Segmentation [0.9137554315375922]
そこで我々はPIG-Netと呼ばれるインセプションに基づくディープネットワークアーキテクチャを提案し,点雲の局所的および大域的幾何学的詳細を効果的に特徴付ける。
我々は2つの最先端データセット上でPIG-Netアーキテクチャの徹底的な実験的解析を行う。
論文 参考訳(メタデータ) (2021-01-28T13:27:55Z) - 3D Object Detection with Pointformer [29.935891419574602]
本稿では,3dポイントクラウドのためのトランスフォーマーバックボーンであるpointformerを提案する。
ローカルトランスフォーマーモジュールは、オブジェクトレベルでコンテキスト依存の領域特徴を学習するローカル領域のポイント間の相互作用をモデル化するために使用される。
Global Transformerは、シーンレベルでコンテキスト対応の表現を学ぶように設計されている。
論文 参考訳(メタデータ) (2020-12-21T15:12:54Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。