論文の概要: PointCAT: Cross-Attention Transformer for point cloud
- arxiv url: http://arxiv.org/abs/2304.03012v1
- Date: Thu, 6 Apr 2023 11:58:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 14:30:21.927820
- Title: PointCAT: Cross-Attention Transformer for point cloud
- Title(参考訳): PointCAT: ポイントクラウド用のクロスアテンショントランス
- Authors: Xincheng Yang, Mingze Jin, Weiji He, Qian Chen
- Abstract要約: 本稿では、新しいエンドツーエンドネットワークアーキテクチャであるPointCAT(Point Cross-Attention Transformer)を提案する。
提案手法は,2つのセシレート・クロスアテンション・トランスを用いたマルチスケール機能を組み合わせたものである。
本手法は, 形状分類, 部分分割, セマンティックセマンティックセマンティクスタスクにおけるいくつかの手法に比較して, 性能を向上または達成する。
- 参考スコア(独自算出の注目度): 1.3176016397292067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based models have significantly advanced natural language
processing and computer vision in recent years. However, due to the irregular
and disordered structure of point cloud data, transformer-based models for 3D
deep learning are still in their infancy compared to other methods. In this
paper we present Point Cross-Attention Transformer (PointCAT), a novel
end-to-end network architecture using cross-attentions mechanism for point
cloud representing. Our approach combines multi-scale features via two seprate
cross-attention transformer branches. To reduce the computational increase
brought by multi-branch structure, we further introduce an efficient model for
shape classification, which only process single class token of one branch as a
query to calculate attention map with the other. Extensive experiments
demonstrate that our method outperforms or achieves comparable performance to
several approaches in shape classification, part segmentation and semantic
segmentation tasks.
- Abstract(参考訳): トランスフォーマーベースのモデルは近年、自然言語処理とコンピュータビジョンが大幅に進歩している。
しかし、点雲データの不規則で不規則な構造のため、3Dディープラーニングのためのトランスフォーマーベースのモデルは、他の方法と比較してまだ初期段階にある。
本稿では,ポイントクラウド表現のためのクロスアテンション機構を用いた新しいエンドツーエンドネットワークアーキテクチャであるPointCATを提案する。
提案手法は2つのセグレートクロスアテンショントランスを用いたマルチスケール機能を組み合わせたものである。
マルチブランチ構造による計算量の増加を低減すべく,一方のブランチの単一クラストークンのみをクエリとして処理し,他方のアテンションマップを計算できる効率的な形状分類モデルも導入する。
本手法は, 形状分類, 部分分割, セマンティックセマンティックセマンティクスタスクにおいて, より優れた性能を示すか, あるいは同等の性能を発揮することを示す。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z) - Point Cloud Learning with Transformer [2.3204178451683264]
我々は,マルチレベルマルチスケールポイントトランスフォーマ(mlmspt)と呼ばれる新しいフレームワークを提案する。
具体的には、点ピラミッド変換器を用いて、多様な分解能やスケールを持つ特徴をモデル化する。
マルチレベルトランスモジュールは、各スケールの異なるレベルからコンテキスト情報を集約し、それらの相互作用を強化するように設計されている。
論文 参考訳(メタデータ) (2021-04-28T08:39:21Z) - Cross-Level Cross-Scale Cross-Attention Network for Point Cloud
Representation [8.76786786874107]
最近、自然言語処理(NLP)と画像処理領域の顕著な進歩を達成した自己保持メカニズム。
ポイントクラウド表現学習のためのクロスレベルクロススケールクロスアテンションネットワーク(CLCSCANet)と呼ばれるエンドツーエンドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-04-27T09:01:14Z) - Dual Transformer for Point Cloud Analysis [2.160196691362033]
Dual Transformer Network (DTNet) と呼ばれる新しいポイントクラウド表現学習アーキテクチャを紹介します。
具体的には、よく設計されたポイントワイズモデルとチャネルワイズマルチヘッドセルフアテンションモデルを同時にアグリゲートすることで、DPCTモジュールは位置とチャネルの観点から意味的にはるかにリッチなコンテキスト依存性をキャプチャできます。
3Dポイントクラウドの分類とセグメンテーションのタスクにおいて,提案するトランスフォーマーフレームワークの有効性を実証し,最先端のアプローチと比較して高い競争性能を実現した。
論文 参考訳(メタデータ) (2021-04-27T08:41:02Z) - Few-shot 3D Point Cloud Semantic Segmentation [138.80825169240302]
本稿では,新しい注意型マルチプロトタイプトランスダクティブ・ショットポイント・クラウドセマンティックセマンティック・セマンティクス法を提案する。
提案手法は,雲のセマンティックセマンティックセグメンテーション設定の違いによるベースラインに比べて,顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2020-06-22T08:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。