論文の概要: HFBRI-MAE: Handcrafted Feature Based Rotation-Invariant Masked Autoencoder for 3D Point Cloud Analysis
- arxiv url: http://arxiv.org/abs/2504.14132v1
- Date: Sat, 19 Apr 2025 01:33:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 04:52:24.361801
- Title: HFBRI-MAE: Handcrafted Feature Based Rotation-Invariant Masked Autoencoder for 3D Point Cloud Analysis
- Title(参考訳): HFBRI-MAE:3Dポイントクラウド解析のための手作り特徴量に基づく回転不変マスク付きオートエンコーダ
- Authors: Xuanhua Yin, Dingxin Zhang, Jianhui Yu, Weidong Cai,
- Abstract要約: HFBRI-MAE(Handcrafted Feature-Based Rotation-Invariant Masked Autoencoder)を導入する。
HFBRI-MAEは、回転不変のハンドクラフト機能でMAE設計を洗練し、異なる方向をまたいで安定した特徴学習を実現する新しいフレームワークである。
HFBRI-MAEは、オブジェクト分類、セグメンテーション、少数ショット学習において、既存の手法よりも一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 10.978894026853675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) has demonstrated remarkable success in 3D point cloud analysis, particularly through masked autoencoders (MAEs). However, existing MAE-based methods lack rotation invariance, leading to significant performance degradation when processing arbitrarily rotated point clouds in real-world scenarios. To address this limitation, we introduce Handcrafted Feature-Based Rotation-Invariant Masked Autoencoder (HFBRI-MAE), a novel framework that refines the MAE design with rotation-invariant handcrafted features to ensure stable feature learning across different orientations. By leveraging both rotation-invariant local and global features for token embedding and position embedding, HFBRI-MAE effectively eliminates rotational dependencies while preserving rich geometric structures. Additionally, we redefine the reconstruction target to a canonically aligned version of the input, mitigating rotational ambiguities. Extensive experiments on ModelNet40, ScanObjectNN, and ShapeNetPart demonstrate that HFBRI-MAE consistently outperforms existing methods in object classification, segmentation, and few-shot learning, highlighting its robustness and strong generalization ability in real-world 3D applications.
- Abstract(参考訳): 自己教師付き学習(SSL)は、特にマスク付きオートエンコーダ(MAE)を通して、3Dポイントクラウド分析において顕著な成功を収めている。
しかし、既存のMAEベースの手法では回転不変性が欠如しており、実世界のシナリオで任意に回転した点雲を処理する場合、性能が著しく低下する。
この制限に対処するため,HFBRI-MAE(Handcrafted Feature-Based Rotation-Invariant Masked Autoencoder)を導入した。
HFBRI-MAEは、回転不変の局所的特徴とグローバルな特徴の両方をトークン埋め込みと位置埋め込みに利用することにより、リッチな幾何学的構造を保ちながら、回転依存を効果的に除去する。
さらに、再構成対象を正則に整列した入力に再定義し、回転のあいまいさを緩和する。
ModelNet40、ScanObjectNN、ShapeNetPartの大規模な実験では、HFBRI-MAEはオブジェクト分類、セグメンテーション、および少数ショット学習において既存の手法を一貫して上回り、現実世界の3Dアプリケーションにおける堅牢性と強力な一般化能力を強調している。
関連論文リスト
- Rotation-Adaptive Point Cloud Domain Generalization via Intricate Orientation Learning [34.424450834358204]
本稿では,3次元点雲解析のための回転適応型領域一般化フレームワークを提案する。
本手法は,反復学習プロセスにおける複雑なサンプルを活用することにより,方向転換を緩和することを目的としている。
我々は、配向整合性損失とマージン分離損失を組み込んだ配向型コントラスト学習フレームワークを採用する。
論文 参考訳(メタデータ) (2025-02-04T11:46:32Z) - MaskLRF: Self-supervised Pretraining via Masked Autoencoding of Local Reference Frames for Rotation-invariant 3D Point Set Analysis [1.19658449368018]
本稿では,3次元点集合解析のための回転不変な自己教師付き事前学習フレームワークを初めて開発する。
提案したアルゴリズムはMaskLRFと呼ばれ、3Dポイントのマスク付きオートエンコーディングにより回転不変かつ高度に一般化可能な潜在特徴を学習する。
そこで,MaskLRFは,非矛盾な向きを持つ3次元点集合の解析において,最先端の精度を実現していることを確認した。
論文 参考訳(メタデータ) (2024-03-01T00:42:49Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with Pre-trained Vision-Language Models [59.13757801286343]
クラス増分学習(class-incremental learning)は、モデルが限られたデータで漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
本稿では,特徴空間の不整合のための冗長特徴除去器 (RFE) と,重要な雑音に対する空間ノイズ補償器 (SNC) の2つの新しいコンポーネントを備えたFILP-3Dフレームワークを紹介する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - Towards Compact 3D Representations via Point Feature Enhancement Masked
Autoencoders [52.66195794216989]
本稿では,コンパクトな3D表現を学習するために,ポイント特徴強調マスク付きオートエンコーダ(Point-FEMAE)を提案する。
Point-FEMAEはグローバルブランチとローカルブランチで構成され、潜在意味的特徴をキャプチャする。
本手法は, クロスモーダル方式と比較して, 事前学習効率を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-17T14:17:05Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Rotation-Invariant Transformer for Point Cloud Matching [42.5714375149213]
我々は,回転不変変換器であるRoITrを導入し,点クラウドマッチングタスクにおけるポーズ変動に対処する。
本稿では,自己認識機構によって学習した,回転不変なクロスフレーム空間認識を備えたグローバルトランスフォーマーを提案する。
RoITrは、Inlier RatioとRegistration Recallの点で、既存のメソッドを少なくとも13と5のパーセンテージで上回っている。
論文 参考訳(メタデータ) (2023-03-14T20:55:27Z) - ReF -- Rotation Equivariant Features for Local Feature Matching [30.459559206664427]
本稿では,モデルアーキテクチャ自体に偏りを生じさせ,回転特異な特徴を生じさせる代替的補完的手法を提案する。
我々は, ステアブルCNNの高性能, 回転特異的カバレッジを全回転角に拡張できることを実証した。
本稿では,アンサンブル,ロバストな推定,ネットワークアーキテクチャのバリエーション,回転前処理の効果について詳細に分析する。
論文 参考訳(メタデータ) (2022-03-10T07:36:09Z) - ART-Point: Improving Rotation Robustness of Point Cloud Classifiers via
Adversarial Rotation [89.47574181669903]
本研究では, 点雲分類器の回転ロバスト性も, 対角訓練により得られることを示す。
具体的には、ART-Pointというフレームワークは、ポイントクラウドの回転を攻撃と見なしている。
最終的なロバストモデルに効率よく到達するために,高速なワンステップ最適化を提案する。
論文 参考訳(メタデータ) (2022-03-08T07:20:16Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Attentive Rotation Invariant Convolution for Point Cloud-based Large
Scale Place Recognition [11.433270318356675]
本稿では,Attentive Rotation Invariant Convolution (ARIConv)を提案する。
クラウドスキャンを回転させた場合の大規模位置認識タスクにおいて,本モデルが最先端の性能を達成できることを実験的に実証した。
論文 参考訳(メタデータ) (2021-08-29T09:10:56Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。