論文の概要: LCPFormer: Towards Effective 3D Point Cloud Analysis via Local Context
Propagation in Transformers
- arxiv url: http://arxiv.org/abs/2210.12755v1
- Date: Sun, 23 Oct 2022 15:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 17:29:55.554751
- Title: LCPFormer: Towards Effective 3D Point Cloud Analysis via Local Context
Propagation in Transformers
- Title(参考訳): LCPFormer: 変圧器の局所的文脈伝搬による効率的な3Dポイントクラウド解析を目指して
- Authors: Zhuoxu Huang, Zhiyou Zhao, Banghuai Li, Jungong Han
- Abstract要約: 本稿では,近隣地域間のメッセージパッシングを活用するために,LCP (Local Context Propagation) という新しいモジュールを提案する。
隣接するローカル領域の重複点を仲介として使用した後、異なるローカルリージョンからの共有ポイントの特徴を再重み付けし、その後、次のレイヤに渡す。
提案手法は, 異なるタスクに適用可能であり, 3次元形状分類や高密度予測タスクを含むベンチマークにおいて, 様々なトランスフォーマーベースの手法より優れる。
- 参考スコア(独自算出の注目度): 60.51925353387151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer with its underlying attention mechanism and the ability to
capture long-range dependencies makes it become a natural choice for unordered
point cloud data. However, separated local regions from the general sampling
architecture corrupt the structural information of the instances, and the
inherent relationships between adjacent local regions lack exploration, while
local structural information is crucial in a transformer-based 3D point cloud
model. Therefore, in this paper, we propose a novel module named Local Context
Propagation (LCP) to exploit the message passing between neighboring local
regions and make their representations more informative and discriminative.
More specifically, we use the overlap points of adjacent local regions (which
statistically show to be prevalent) as intermediaries, then re-weight the
features of these shared points from different local regions before passing
them to the next layers. Inserting the LCP module between two transformer
layers results in a significant improvement in network expressiveness. Finally,
we design a flexible LCPFormer architecture equipped with the LCP module. The
proposed method is applicable to different tasks and outperforms various
transformer-based methods in benchmarks including 3D shape classification and
dense prediction tasks such as 3D object detection and semantic segmentation.
Code will be released for reproduction.
- Abstract(参考訳): その基盤となる注意機構と長距離依存関係をキャプチャする能力を備えたTransformerは、未順序のポイントクラウドデータにとって自然な選択になる。
しかしながら、一般的なサンプリングアーキテクチャから分離したローカルリージョンでは、インスタンスの構造情報が損なわれ、隣接するローカルリージョン間の固有の関係は探索に乏しく、トランスフォーマーベースの3dポイントクラウドモデルではローカルな構造情報が不可欠である。
そこで本稿では,近隣地域間のメッセージパッシングを利用して,その表現をより情報的かつ識別的にするための,ローカルコンテキスト伝搬(LCP)と呼ばれる新しいモジュールを提案する。
より具体的には、隣り合う局所領域(統計的に有意である)の重複点を中間点として、次に異なる局所領域からの共有点の特徴を再重み付けし、次に次の層に渡す。
2つのトランス層の間にLCPモジュールを挿入すると、ネットワーク表現性が大幅に向上する。
最後に,LCPモジュールを備えた柔軟なLCPFormerアーキテクチャを設計する。
提案手法は,3次元形状分類や3次元オブジェクト検出やセマンティックセグメンテーションなどの高密度な予測タスクを含むベンチマークにおいて,様々なタスクに適用できる。
コードは再生のためにリリースされます。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Local region-learning modules for point cloud classification [0.0]
本研究では,各中心点に対する適切なシフトを推定し,各局所領域の半径を変化させる2つの局所学習モジュールを提案する。
どちらのモジュールも独立して、PointNet++とPointCNNオブジェクト分類アーキテクチャに統合しました。
ShapeNetデータセットを用いた実験の結果,モジュールは3次元CADモデルにも有効であることがわかった。
論文 参考訳(メタデータ) (2023-03-30T12:45:46Z) - Adaptive Spot-Guided Transformer for Consistent Local Feature Matching [64.30749838423922]
局所的特徴マッチングのための適応スポットガイド変換器(ASTR)を提案する。
ASTRは、統一された粗いアーキテクチャにおける局所的な一貫性とスケールのバリエーションをモデル化する。
論文 参考訳(メタデータ) (2023-03-29T12:28:01Z) - Full Point Encoding for Local Feature Aggregation in 3D Point Clouds [29.402585297221457]
畳み込みおよびトランスフォーマーアーキテクチャに適用可能な全点符号化を提案する。
鍵となる考え方は、局所的および大域的な幾何学的接続から重みを適応的に学習することである。
S3DIS 6倍の76% mIoU と S3DIS Area5 の72.2% の最先端セマンティックセグメンテーション結果を得た。
論文 参考訳(メタデータ) (2023-03-08T09:14:17Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - LCTR: On Awakening the Local Continuity of Transformer for Weakly
Supervised Object Localization [38.376238216214524]
弱教師付きオブジェクトローカライゼーション(WSOL)は、画像レベルのラベルだけでオブジェクトローカライザを学習することを目的としている。
本稿では,グローバルな特徴の局所認識能力を高めることを目的とした,LCTRと呼ばれるトランスフォーマー上に構築された新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-10T01:48:40Z) - Global Aggregation then Local Distribution for Scene Parsing [99.1095068574454]
提案手法は,エンドツーエンドのトレーニング可能なブロックとしてモジュール化され,既存のセマンティックセグメンテーションネットワークに容易に接続可能であることを示す。
私たちのアプローチでは、Cityscapes、ADE20K、Pascal Context、Camvid、COCO-stuffといった主要なセマンティックセグメンテーションベンチマークに基づいて、新しい最先端の技術を構築できます。
論文 参考訳(メタデータ) (2021-07-28T03:46:57Z) - Local Context Attention for Salient Object Segmentation [5.542044768017415]
本研究では,一様表現型アーキテクチャで局所強化特徴写像を生成するための新しいローカルコンテキスト注意ネットワーク(LCANet)を提案する。
提案するネットワークでは,粗い予測と大域的コンテキストの間の相関特徴写像を計算し,アテンショナル・コリレーション・フィルタ (ACF) モジュールを導入している。
いくつかの有能なオブジェクトセグメンテーションデータセットに対して総合的な実験を行い、提案したLCANetの最先端手法に対する優れた性能を実証した。
論文 参考訳(メタデータ) (2020-09-24T09:20:06Z) - LRC-Net: Learning Discriminative Features on Point Clouds by Encoding
Local Region Contexts [65.79931333193016]
本稿では,LRC-Net(Local-Region-Context Network)を提案する。
LRC-Netは、局所領域内および周辺領域間の微粒なコンテキストを同時に符号化する。
その結果, LRC-Netは形状分類や形状分割の応用において最先端の手法と競合することがわかった。
論文 参考訳(メタデータ) (2020-03-18T14:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。