論文の概要: DAP-MAE: Domain-Adaptive Point Cloud Masked Autoencoder for Effective Cross-Domain Learning
- arxiv url: http://arxiv.org/abs/2510.21635v1
- Date: Fri, 24 Oct 2025 16:44:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.546171
- Title: DAP-MAE: Domain-Adaptive Point Cloud Masked Autoencoder for Effective Cross-Domain Learning
- Title(参考訳): DAP-MAE: 効果的なクロスドメイン学習のためのドメイン適応型ポイントクラウドマスク付きオートエンコーダ
- Authors: Ziqi Gao, Qiufu Li, Linlin Shen,
- Abstract要約: 我々は,MAE事前学習法であるDAP-MAE(Domain-Adaptive Point Cloud Masked Autoencoder)を提案する。
DAP-MAEにはドメイン機能ジェネレータが組み込まれており、さまざまなダウンストリームタスクへのポイントクラウド機能の適用をガイドしている。
DAP-MAEは1つの事前トレーニングで、4つの異なるポイントクラウド分析タスクで優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 56.86793222623566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared to 2D data, the scale of point cloud data in different domains available for training, is quite limited. Researchers have been trying to combine these data of different domains for masked autoencoder (MAE) pre-training to leverage such a data scarcity issue. However, the prior knowledge learned from mixed domains may not align well with the downstream 3D point cloud analysis tasks, leading to degraded performance. To address such an issue, we propose the Domain-Adaptive Point Cloud Masked Autoencoder (DAP-MAE), an MAE pre-training method, to adaptively integrate the knowledge of cross-domain datasets for general point cloud analysis. In DAP-MAE, we design a heterogeneous domain adapter that utilizes an adaptation mode during pre-training, enabling the model to comprehensively learn information from point clouds across different domains, while employing a fusion mode in the fine-tuning to enhance point cloud features. Meanwhile, DAP-MAE incorporates a domain feature generator to guide the adaptation of point cloud features to various downstream tasks. With only one pre-training, DAP-MAE achieves excellent performance across four different point cloud analysis tasks, reaching 95.18% in object classification on ScanObjectNN and 88.45% in facial expression recognition on Bosphorus.
- Abstract(参考訳): 2Dデータと比較して、トレーニング用に異なるドメインで利用可能なポイントクラウドデータのスケールは非常に限られています。
研究者たちは、これらの異なるドメインのデータを組み合わせて、マスク付きオートエンコーダ(MAE)の事前トレーニングを行い、そのようなデータ不足の問題を活用しようとしている。
しかし、混合ドメインから学んだ以前の知識は、下流の3Dポイントクラウド分析タスクとうまく一致せず、性能が低下する可能性がある。
このような問題に対処するため、汎用クラウド分析のためのクロスドメインデータセットの知識を適応的に統合するMAE事前学習手法であるDomain-Adaptive Point Cloud Masked Autoencoder (DAP-MAE)を提案する。
DAP-MAEでは、事前学習中に適応モードを利用する異種ドメインアダプタを設計し、各領域の点雲から情報を総合的に学習し、微調整では融合モードを用いて点雲の特徴を増強する。
一方、DAP-MAEにはドメイン機能ジェネレータが組み込まれており、さまざまなダウンストリームタスクへのポイントクラウド機能の適用をガイドしている。
DAP-MAEは1つの事前トレーニングのみで、4つの異なるポイントクラウド分析タスクで優れたパフォーマンスを達成し、ScanObjectNNでのオブジェクト分類では95.18%、Bosphorusでの顔認識では88.45%に達した。
関連論文リスト
- MSCN: Multi-view Structural Convolution Network for Domain-Invariant Point Cloud Recognition of Autonomous Vehicles [1.7616042687330637]
マルチビュー構造畳み込みネットワーク(MSCN)はドメイン不変の認識を実現するために設計された新しいアーキテクチャである。
MSCNは、すべてのドメイン変更シナリオにおいて、最先端のクラウド分類方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-01-27T18:25:35Z) - Point Cloud Mamba: Point Cloud Learning via State Space Model [73.7454734756626]
我々は,マンバをベースとしたポイントクラウド法が,トランスフォーマや多層パーセプトロン(MLP)に基づく従来手法よりも優れていることを示す。
特に,マルチ層パーセプトロン(MLP)を用いて,マンバをベースとした点雲法が従来手法より優れていることを示す。
Point Cloud Mambaは、最先端(SOTA)のポイントベースメソッドであるPointNeXtを超え、ScanNN、ModelNet40、ShapeNetPart、S3DISデータセット上での新たなSOTAパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-01T18:59:03Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - PointPatchMix: Point Cloud Mixing with Patch Scoring [58.58535918705736]
我々は、パッチレベルでポイントクラウドを混合し、混合ポイントクラウドのコンテンツベースターゲットを生成するPointPatchMixを提案する。
パッチスコアリングモジュールは、事前学習した教師モデルから、コンテンツに基づく重要度スコアに基づいて目標を割り当てる。
Point-MAE をベースラインとして,ScanObjectNN では86.3%,ModelNet40 では94.1% の精度で,従来の手法をかなり上回りました。
論文 参考訳(メタデータ) (2023-03-12T14:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。