論文の概要: Cross-Level Cross-Scale Cross-Attention Network for Point Cloud
Representation
- arxiv url: http://arxiv.org/abs/2104.13053v1
- Date: Tue, 27 Apr 2021 09:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 19:44:04.885795
- Title: Cross-Level Cross-Scale Cross-Attention Network for Point Cloud
Representation
- Title(参考訳): ポイントクラウド表現のためのクロスレベルクロススケールクロスアテンションネットワーク
- Authors: Xian-Feng Han and Zhang-Yue He and Jia Chen and Guo-Qiang Xiao
- Abstract要約: 最近、自然言語処理(NLP)と画像処理領域の顕著な進歩を達成した自己保持メカニズム。
ポイントクラウド表現学習のためのクロスレベルクロススケールクロスアテンションネットワーク(CLCSCANet)と呼ばれるエンドツーエンドアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 8.76786786874107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-attention mechanism recently achieves impressive advancement in Natural
Language Processing (NLP) and Image Processing domains. And its permutation
invariance property makes it ideally suitable for point cloud processing.
Inspired by this remarkable success, we propose an end-to-end architecture,
dubbed Cross-Level Cross-Scale Cross-Attention Network (CLCSCANet), for point
cloud representation learning. First, a point-wise feature pyramid module is
introduced to hierarchically extract features from different scales or
resolutions. Then a cross-level cross-attention is designed to model long-range
inter-level and intra-level dependencies. Finally, we develop a cross-scale
cross-attention module to capture interactions between-and-within scales for
representation enhancement. Compared with state-of-the-art approaches, our
network can obtain competitive performance on challenging 3D object
classification, point cloud segmentation tasks via comprehensive experimental
evaluation.
- Abstract(参考訳): 近年,自然言語処理(NLP)と画像処理領域において,自己認識機構が顕著な進歩を遂げている。
そして、その置換不変性は、点クラウド処理に理想的に適合する。
この顕著な成功に触発されて、ポイントクラウド表現学習のためのクロスレベルクロススケールクロスアテンションネットワーク(CLCSCANet)と呼ばれるエンドツーエンドアーキテクチャを提案する。
まず、異なるスケールや解像度から特徴を階層的に抽出するために、ポイントワイズ特徴ピラミッドモジュールを導入する。
次に、クロスレベルなクロスアテンションが、長期の階層間および階層内依存関係をモデル化するように設計される。
最後に,表現の強化のために,相互の相互作用を捕捉するクロススケール・クロスアテンション・モジュールを開発した。
最先端のアプローチと比較して,ネットワークは3次元オブジェクト分類やポイントクラウドセグメンテーションタスクにおいて,総合的な実験的評価によって競合性能を得ることができる。
関連論文リスト
- Unsupervised Non-Rigid Point Cloud Matching through Large Vision Models [1.3030624795284795]
非剛点クラウドマッチングのための学習ベースのフレームワークを提案する。
重要な洞察は、大きな視覚モデル(LVM)から派生した意味的特徴を統合することである。
本フレームワークは,局所的な地形間の自己相似性から生じるあいまいさに対処するために,意味的特徴に含まれる構造情報を効果的に活用する。
論文 参考訳(メタデータ) (2024-08-16T07:02:19Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - CRA-PCN: Point Cloud Completion with Intra- and Inter-level
Cross-Resolution Transformers [29.417270066061864]
局所的な注意機構を持つクロスレゾリューションアグリゲーションを効率的に行うクロスレゾリューショントランスを提案する。
我々は2種類のクロス・リゾリューション・トランスフォーマーを1つのアップサンプリングブロックに統合して点生成を行い、粗い方法でCRA-PCNを構築し、完全な形状を漸進的に予測する。
論文 参考訳(メタデータ) (2024-01-03T05:57:39Z) - PointCAT: Cross-Attention Transformer for point cloud [1.3176016397292067]
本稿では、新しいエンドツーエンドネットワークアーキテクチャであるPointCAT(Point Cross-Attention Transformer)を提案する。
提案手法は,2つのセシレート・クロスアテンション・トランスを用いたマルチスケール機能を組み合わせたものである。
本手法は, 形状分類, 部分分割, セマンティックセマンティックセマンティクスタスクにおけるいくつかの手法に比較して, 性能を向上または達成する。
論文 参考訳(メタデータ) (2023-04-06T11:58:18Z) - Self-positioning Point-based Transformer for Point Cloud Understanding [18.394318824968263]
セルフポジショニングポイントベースのトランスフォーマー(SPoTr)は、局所的およびグローバルな形状のコンテキストを複雑さを減らしてキャプチャするように設計されている。
SPoTrは、ScanObjectNNを用いた形状分類における以前の最良のモデルよりも精度が2.6%向上している。
論文 参考訳(メタデータ) (2023-03-29T04:27:11Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - REGTR: End-to-end Point Cloud Correspondences with Transformers [79.52112840465558]
我々は、注意機構が明示的な特徴マッチングとRANSACの役割を置き換えることができると推測する。
本稿では,最終文集合を直接予測するエンドツーエンドフレームワークを提案する。
提案手法は3DMatchおよびModelNetベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T06:01:00Z) - DFC: Deep Feature Consistency for Robust Point Cloud Registration [0.4724825031148411]
複雑なアライメントシーンのための学習に基づくアライメントネットワークを提案する。
我々は,3DMatchデータセットとKITTIオドメトリデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-11-15T08:27:21Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Point Transformer [122.2917213154675]
セルフアテンションネットワークを3Dポイントクラウド処理に適用することを検討する。
ポイントクラウドのセルフアテンションレイヤを設計し、セマンティックシーンセグメンテーションなどのタスクのためのセルフアテンションネットワークの構築に使用します。
ポイントトランスフォーマーの設計は、ドメインやタスク間の事前作業を改善する。
論文 参考訳(メタデータ) (2020-12-16T18:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。