論文の概要: CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning
- arxiv url: http://arxiv.org/abs/2208.00524v1
- Date: Sun, 31 Jul 2022 21:39:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:01:28.858141
- Title: CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning
- Title(参考訳): CloudAttention: 3Dポイントのクラウド学習のための効率的なマルチスケールアテンションスキーム
- Authors: Mahdi Saleh, Yige Wang, Nassir Navab, Benjamin Busam, Federico Tombari
- Abstract要約: この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
- 参考スコア(独自算出の注目度): 81.85951026033787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Processing 3D data efficiently has always been a challenge. Spatial
operations on large-scale point clouds, stored as sparse data, require extra
cost. Attracted by the success of transformers, researchers are using
multi-head attention for vision tasks. However, attention calculations in
transformers come with quadratic complexity in the number of inputs and miss
spatial intuition on sets like point clouds. We redesign set transformers in
this work and incorporate them into a hierarchical framework for shape
classification and part and scene segmentation. We propose our local attention
unit, which captures features in a spatial neighborhood. We also compute
efficient and dynamic global cross attentions by leveraging sampling and
grouping at each iteration. Finally, to mitigate the non-heterogeneity of point
clouds, we propose an efficient Multi-Scale Tokenization (MST), which extracts
scale-invariant tokens for attention operations. The proposed hierarchical
model achieves state-of-the-art shape classification in mean accuracy and
yields results on par with the previous segmentation methods while requiring
significantly fewer computations. Our proposed architecture predicts
segmentation labels with around half the latency and parameter count of the
previous most efficient method with comparable performance. The code is
available at https://github.com/YigeWang-WHU/CloudAttention.
- Abstract(参考訳): 3Dデータを効率的に処理することは、常に課題だった。
スパースデータとして格納される大規模ポイントクラウド上の空間操作には、余分なコストが必要である。
トランスフォーマーの成功に惹かれ、研究者は視覚タスクにマルチヘッドアテンションを使用している。
しかし、変圧器の注意計算は入力数において2次複雑さを伴い、点雲のような集合上の空間直観を見逃す。
この作業でセットトランスフォーマーを再設計し,形状分類と部分,シーンセグメンテーションのための階層的枠組みに組み込んだ。
そこで我々は,地域の特徴を捉えた地域注意ユニットを提案する。
また、各イテレーションのサンプリングとグループ化を利用して、効率的でダイナミックなグローバルクロスアテンションを計算します。
最後に,ポイントクラウドの非ヘテロゲニティを緩和するために,注意操作のためのスケール不変トークンを抽出する効率的なマルチスケールトークン化(mst)を提案する。
提案する階層モデルは, 従来のセグメンテーション法と同等の精度で最先端の形状分類を実現し, 計算量を大幅に削減する。
提案アーキテクチャは,従来の性能の最も効率的な手法の約半分のレイテンシとパラメータ数でセグメンテーションラベルを予測する。
コードはhttps://github.com/YigeWang-WHU/CloudAttentionで入手できる。
関連論文リスト
- Efficient Point Transformer with Dynamic Token Aggregating for Point Cloud Processing [19.73918716354272]
ポイントクラウド表現と処理のための動的トークン集約(DTA-Former)を用いた効率的なポイントトランスフォーマーを提案する。
ModelNet40、ShapeNet、航空機搭載MultiSpectral LiDAR(MS-LiDAR)データセット上の前点変換器よりも最大30$times$高速でSOTAパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-23T20:50:50Z) - Point Cloud Classification Using Content-based Transformer via
Clustering in Feature Space [25.57569871876213]
本稿では,PointConTと呼ばれるポイントコンテントベースのトランスフォーマーアーキテクチャを提案する。
特徴空間内の点(コンテンツベース)の局所性を利用して、類似した特徴を持つサンプルポイントを同じクラスにクラスタし、各クラス内の自己アテンションを計算する。
また,各枝の高周波・低周波情報を並列構造を用いて個別に集約するインセプション機能アグリゲータも導入した。
論文 参考訳(メタデータ) (2023-03-08T14:11:05Z) - ClusTR: Exploring Efficient Self-attention via Clustering for Vision
Transformers [70.76313507550684]
本稿では,密集自己注意の代替として,コンテンツに基づくスパースアテンション手法を提案する。
具体的には、合計トークン数を減少させるコンテンツベースの方法として、キーとバリュートークンをクラスタ化し、集約する。
結果として得られたクラスタ化されたTokenシーケンスは、元の信号のセマンティックな多様性を保持するが、より少ない計算コストで処理できる。
論文 参考訳(メタデータ) (2022-08-28T04:18:27Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - DyCo3D: Robust Instance Segmentation of 3D Point Clouds through Dynamic
Convolution [136.7261709896713]
本稿では,インスタンスの性質に応じて適切な畳み込みカーネルを生成するデータ駆動型アプローチを提案する。
提案手法はScanetNetV2とS3DISの両方で有望な結果が得られる。
また、現在の最先端よりも推論速度を25%以上向上させる。
論文 参考訳(メタデータ) (2020-11-26T14:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。