論文の概要: Full Point Encoding for Local Feature Aggregation in 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2303.04458v1
- Date: Wed, 8 Mar 2023 09:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 14:31:13.524341
- Title: Full Point Encoding for Local Feature Aggregation in 3D Point Clouds
- Title(参考訳): 3次元点雲における局所特徴集合のためのフルポイント符号化
- Authors: Yong He, Hongshan Yu, Zhengeng Yang, Xiaoyan Liu, Wei Sun, Ajmal Mian
- Abstract要約: 畳み込みおよびトランスフォーマーアーキテクチャに適用可能な全点符号化を提案する。
鍵となる考え方は、局所的および大域的な幾何学的接続から重みを適応的に学習することである。
S3DIS 6倍の76% mIoU と S3DIS Area5 の72.2% の最先端セマンティックセグメンテーション結果を得た。
- 参考スコア(独自算出の注目度): 29.402585297221457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud processing methods exploit local point features and global
context through aggregation which does not explicity model the internal
correlations between local and global features. To address this problem, we
propose full point encoding which is applicable to convolution and transformer
architectures. Specifically, we propose Full Point Convolution (FPConv) and
Full Point Transformer (FPTransformer) architectures. The key idea is to
adaptively learn the weights from local and global geometric connections, where
the connections are established through local and global correlation functions
respectively. FPConv and FPTransformer simultaneously model the local and
global geometric relationships as well as their internal correlations,
demonstrating strong generalization ability and high performance. FPConv is
incorporated in classical hierarchical network architectures to achieve local
and global shape-aware learning. In FPTransformer, we introduce full point
position encoding in self-attention, that hierarchically encodes each point
position in the global and local receptive field. We also propose a shape aware
downsampling block which takes into account the local shape and the global
context. Experimental comparison to existing methods on benchmark datasets show
the efficacy of FPConv and FPTransformer for semantic segmentation, object
detection, classification, and normal estimation tasks. In particular, we
achieve state-of-the-art semantic segmentation results of 76% mIoU on S3DIS
6-fold and 72.2% on S3DIS Area5.
- Abstract(参考訳): ポイントクラウド処理手法は,ローカルとグローバル間の内部相関を明示的にモデル化しないアグリゲーションを通じて,ローカルポイント機能とグローバルコンテキストを利用する。
この問題に対処するために,畳み込みおよびトランスフォーマーアーキテクチャに適用可能な全点符号化を提案する。
具体的には,Full Point Convolution (FPConv) アーキテクチャとFull Point Transformer (FPTransformer) アーキテクチャを提案する。
鍵となる考え方は、局所的および大域的幾何学的接続から重みを適応的に学習することであり、それぞれが局所的および大域的相関関数によって接続を確立する。
FPConvとFPTransformerは、局所的および大域的幾何学的関係と内部相関を同時にモデル化し、強力な一般化能力と高い性能を示す。
fpconvは、ローカルおよびグローバル形状認識学習を達成するために、古典的な階層ネットワークアーキテクチャに組み込まれている。
fptransformerでは,大域および局所受容野の各点位置を階層的に符号化するセルフアテンションにおける全点位置符号化を導入する。
また,局所的な形状とグローバルな文脈を考慮した形状認識型ダウンサンプリングブロックを提案する。
ベンチマークデータセットにおける既存の手法との実験的比較は、fpconvとfptransformerが意味セグメンテーション、オブジェクト検出、分類、正規推定タスクに有効であることを示している。
特に,S3DIS 6倍の76% mIoU,S3DIS Area5の72.2%の最先端セマンティックセマンティックセグメンテーション結果を得た。
関連論文リスト
- GSTran: Joint Geometric and Semantic Coherence for Point Cloud Segmentation [33.72549134362884]
本稿では,セグメント化作業に適した新しい変圧器ネットワークであるGSTranを提案する。
提案するネットワークは主に,局所幾何学変換器と大域意味変換器の2つの主成分から構成される。
ShapeNetPartとS3DISベンチマークの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-21T12:12:37Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - APPT : Asymmetric Parallel Point Transformer for 3D Point Cloud
Understanding [20.87092793669536]
トランスフォーマーベースのネットワークは、3Dポイントクラウド理解において素晴らしいパフォーマンスを達成した。
これらの問題に対処するために,非対称並列点変換器(APPT)を提案する。
APPTは、ローカル詳細機能に集中しながら、ネットワーク全体を通して機能を取り込むことができる。
論文 参考訳(メタデータ) (2023-03-31T06:11:02Z) - LCPFormer: Towards Effective 3D Point Cloud Analysis via Local Context
Propagation in Transformers [60.51925353387151]
本稿では,近隣地域間のメッセージパッシングを活用するために,LCP (Local Context Propagation) という新しいモジュールを提案する。
隣接するローカル領域の重複点を仲介として使用した後、異なるローカルリージョンからの共有ポイントの特徴を再重み付けし、その後、次のレイヤに渡す。
提案手法は, 異なるタスクに適用可能であり, 3次元形状分類や高密度予測タスクを含むベンチマークにおいて, 様々なトランスフォーマーベースの手法より優れる。
論文 参考訳(メタデータ) (2022-10-23T15:43:01Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - Conformer: Local Features Coupling Global Representations for Visual
Recognition [72.9550481476101]
本稿では,畳み込み操作と自己アテンション機構を利用した表現学習のためのハイブリッドネットワーク構造,conformerを提案する。
実験では、コンフォーマーが同等のパラメータ複雑性の下で視覚変換器(DeiT-B)を2.3%上回ることが示されている。
論文 参考訳(メタデータ) (2021-05-09T10:00:03Z) - LRC-Net: Learning Discriminative Features on Point Clouds by Encoding
Local Region Contexts [65.79931333193016]
本稿では,LRC-Net(Local-Region-Context Network)を提案する。
LRC-Netは、局所領域内および周辺領域間の微粒なコンテキストを同時に符号化する。
その結果, LRC-Netは形状分類や形状分割の応用において最先端の手法と競合することがわかった。
論文 参考訳(メタデータ) (2020-03-18T14:34:08Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。