論文の概要: 3DCTN: 3D Convolution-Transformer Network for Point Cloud Classification
- arxiv url: http://arxiv.org/abs/2203.00828v1
- Date: Wed, 2 Mar 2022 02:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 14:45:41.792849
- Title: 3DCTN: 3D Convolution-Transformer Network for Point Cloud Classification
- Title(参考訳): 3DCTN:ポイントクラウド分類のための3次元畳み込み変換ネットワーク
- Authors: Dening Lu, Qian Xie, Linlin Xu, Jonathan Li
- Abstract要約: 本稿では,ポイントクラウド分類のためのTransformerとの畳み込みを取り入れた,新しい階層型フレームワークを提案する。
本手法は精度と効率の両面で最先端の分類性能を実現する。
- 参考スコア(独自算出の注目度): 23.0009969537045
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although accurate and fast point cloud classification is a fundamental task
in 3D applications, it is difficult to achieve this purpose due to the
irregularity and disorder of point clouds that make it challenging to achieve
effective and efficient global discriminative feature learning. Lately, 3D
Transformers have been adopted to improve point cloud processing. Nevertheless,
massive Transformer layers tend to incur huge computational and memory costs.
This paper presents a novel hierarchical framework that incorporates
convolution with Transformer for point cloud classification, named 3D
Convolution-Transformer Network (3DCTN), to combine the strong and efficient
local feature learning ability of convolution with the remarkable global
context modeling capability of Transformer. Our method has two main modules
operating on the downsampling point sets, and each module consists of a
multi-scale local feature aggregating (LFA) block and a global feature learning
(GFL) block, which are implemented by using Graph Convolution and Transformer
respectively. We also conduct a detailed investigation on a series of
Transformer variants to explore better performance for our network. Various
experiments on ModelNet40 demonstrate that our method achieves state-of-the-art
classification performance, in terms of both accuracy and efficiency.
- Abstract(参考訳): 正確で高速なポイントクラウド分類は、3dアプリケーションでは基本的なタスクであるが、ポイントクラウドの不規則性と乱れのため、効果的で効率的なグローバル判別的特徴学習を達成することが困難である。
近年、ポイントクラウド処理を改善するために3dトランスフォーマーが採用されている。
それでも、巨大なTransformer層は計算とメモリのコストを発生させる傾向がある。
本稿では,3D Convolution-Transformer Network(3DCTN)という3D Convolution-Transformer Network(3DCTN)という,Transformerとの畳み込みを取り入れた新しい階層型フレームワークを提案する。
本手法は,2つの主モジュールをダウンサンプリング点集合上で動作させ,各モジュールは,グラフ畳み込みと変換器を用いて実装したマルチスケールローカル特徴集約(LFA)ブロックとグローバル特徴学習(GFL)ブロックで構成される。
また,ネットワークの性能向上を追求するため,トランスフォーマーの変種について詳細な調査を行った。
ModelNet40の様々な実験により,提案手法は精度と効率の両面から最先端の分類性能を実現することを示した。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Efficient Point Transformer with Dynamic Token Aggregating for Point Cloud Processing [19.73918716354272]
ポイントクラウド表現と処理のための動的トークン集約(DTA-Former)を用いた効率的なポイントトランスフォーマーを提案する。
ModelNet40、ShapeNet、航空機搭載MultiSpectral LiDAR(MS-LiDAR)データセット上の前点変換器よりも最大30$times$高速でSOTAパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-23T20:50:50Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - Hierarchical Point Attention for Indoor 3D Object Detection [111.04397308495618]
本研究は、点ベース変圧器検出器の汎用階層設計として、2つの新しい注意操作を提案する。
まず、よりきめ細かい特徴学習を可能にするために、シングルスケールの入力機能からマルチスケールトークンを構築するマルチスケール注意(MS-A)を提案する。
第2に,適応型アテンション領域を持つサイズ適応型ローカルアテンション(Local-A)を提案する。
論文 参考訳(メタデータ) (2023-01-06T18:52:12Z) - 3DGTN: 3D Dual-Attention GLocal Transformer Network for Point Cloud
Classification and Segmentation [21.054928631088575]
本稿では,Global Local(GLocal) Transformer Network(3DGTN)と呼ばれる,新たなポイントクラウド表現学習ネットワークを提案する。
提案するフレームワークは,分類データセットとセグメンテーションデータセットの両方で評価される。
論文 参考訳(メタデータ) (2022-09-21T14:34:21Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Transformers in 3D Point Clouds: A Survey [27.784721081318935]
3Dトランスフォーマーモデルは、長距離依存モデリングの驚くべき能力があることが証明されている。
本調査は,各種タスク用に設計された3Dトランスフォーマーの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2022-05-16T01:32:18Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - 3D Object Detection with Pointformer [29.935891419574602]
本稿では,3dポイントクラウドのためのトランスフォーマーバックボーンであるpointformerを提案する。
ローカルトランスフォーマーモジュールは、オブジェクトレベルでコンテキスト依存の領域特徴を学習するローカル領域のポイント間の相互作用をモデル化するために使用される。
Global Transformerは、シーンレベルでコンテキスト対応の表現を学ぶように設計されている。
論文 参考訳(メタデータ) (2020-12-21T15:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。