論文の概要: CMDA: Cross-Modal and Domain Adversarial Adaptation for LiDAR-Based 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2403.03721v2
- Date: Thu, 7 Mar 2024 02:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 16:12:57.895772
- Title: CMDA: Cross-Modal and Domain Adversarial Adaptation for LiDAR-Based 3D
Object Detection
- Title(参考訳): CMDA:LiDARに基づく3Dオブジェクト検出のためのクロスモーダル・ドメイン適応
- Authors: Gyusam Chang, Wonseok Roh, Sujin Jang, Dongwook Lee, Daehyun Ji,
Gyeongrok Oh, Jinsun Park, Jinkyu Kim, Sangpil Kim
- Abstract要約: LiDARベースの3Dオブジェクト検出法は、ソース(またはトレーニング)データ配布の外部のターゲットドメインにうまく一般化しないことが多い。
画像のモダリティから視覚的セマンティックキューを活用する,CMDA (unsupervised domain adaptation) と呼ばれる新しい手法を提案する。
また、自己学習に基づく学習戦略を導入し、モデルが逆向きに訓練され、ドメイン不変の機能を生成する。
- 参考スコア(独自算出の注目度): 14.063365469339812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent LiDAR-based 3D Object Detection (3DOD) methods show promising results,
but they often do not generalize well to target domains outside the source (or
training) data distribution. To reduce such domain gaps and thus to make 3DOD
models more generalizable, we introduce a novel unsupervised domain adaptation
(UDA) method, called CMDA, which (i) leverages visual semantic cues from an
image modality (i.e., camera images) as an effective semantic bridge to close
the domain gap in the cross-modal Bird's Eye View (BEV) representations.
Further, (ii) we also introduce a self-training-based learning strategy,
wherein a model is adversarially trained to generate domain-invariant features,
which disrupt the discrimination of whether a feature instance comes from a
source or an unseen target domain. Overall, our CMDA framework guides the 3DOD
model to generate highly informative and domain-adaptive features for novel
data distributions. In our extensive experiments with large-scale benchmarks,
such as nuScenes, Waymo, and KITTI, those mentioned above provide significant
performance gains for UDA tasks, achieving state-of-the-art performance.
- Abstract(参考訳): 最近のLiDARベースの3Dオブジェクト検出(3DOD)手法は有望な結果を示すが、ソース(またはトレーニング)データ配信の外部のドメインに対してうまく一般化しないことが多い。
このような領域ギャップを低減し、3dodモデルをより一般化するために、cmdaと呼ばれる新しいunsupervised domain adaptation (uda)法を導入する。
(i)画像モダリティ(すなわちカメラ画像)からの視覚的意味的手がかりを効果的な意味橋として活用し、鳥の視覚(bev)表現の領域ギャップを閉じる。
さらに
(II) 自己学習型学習戦略も導入し, モデルが逆向きに訓練されてドメイン不変な特徴が生成され, 特徴インスタンスがソースや未確認対象ドメインから来ているかどうかの判別が阻害される。
全体として、CMDAフレームワークは3DODモデルをガイドし、新しいデータ配信のための高情報かつドメイン適応的な特徴を生成する。
nuScenes、Waymo、KITTIといった大規模ベンチマークによる大規模な実験では、前述のようなものがUDAタスクに対して大きなパフォーマンス向上をもたらし、最先端のパフォーマンスを実現しています。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - STAL3D: Unsupervised Domain Adaptation for 3D Object Detection via Collaborating Self-Training and Adversarial Learning [21.063779140059157]
既存の3Dオブジェクト検出は、ドメインギャップのため、高価なアノテーションコストと未知のデータへの転送性に悩まされる。
STAL3Dと呼ばれるSTとALの協調による3次元オブジェクト検出のための新しい非教師付きドメイン適応フレームワークを提案し、擬似ラベルと特徴分布アライメントの相補的利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-06-27T17:43:35Z) - Visual Foundation Models Boost Cross-Modal Unsupervised Domain Adaptation for 3D Semantic Segmentation [17.875516787157018]
本研究では,2次元視覚基礎モデルから得られた知識を活用して,ラベルのない対象ドメインのより正確なラベルを生成する方法について検討する。
本手法は, 各種自律走行データセットを用いて評価し, 3次元セグメンテーションタスクにおいて有意な改善が得られた。
論文 参考訳(メタデータ) (2024-03-15T03:58:17Z) - Domain Generalization of 3D Object Detection by Density-Resampling [14.510085711178217]
ポイントクラウドベースの3Dオブジェクト検出は、新しいドメインギャップを持つデータに遭遇する際のパフォーマンス劣化に悩まされる。
対象領域に対する3次元物体検出の一般化性を向上させるためのSDG法を提案する。
本研究では,新しいデータ拡張手法を導入し,その方法論に新しいマルチタスク学習戦略を貢献する。
論文 参考訳(メタデータ) (2023-11-17T20:01:29Z) - BEV-DG: Cross-Modal Learning under Bird's-Eye View for Domain
Generalization of 3D Semantic Segmentation [59.99683295806698]
クロスモーダルなUnsupervised Domain Adaptation (UDA)は、新しいドメインにおけるアノテーションの欠如を克服するために、2D-3Dデータの相補性を活用することを目的としている。
本稿では,BEV-DGと呼ばれる3次元セマンティックセグメンテーションの領域一般化(DG)に対する鳥眼図に基づくクロスモーダル学習を提案する。
論文 参考訳(メタデータ) (2023-08-12T11:09:17Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - Unsupervised Domain Adaptation for Monocular 3D Object Detection via
Self-Training [57.25828870799331]
我々は、Mono3D上での教師なしドメイン適応のための新しい自己学習フレームワークSTMono3Dを提案する。
対象ドメイン上で適応的な擬似ラベルを生成するための教師学生パラダイムを開発する。
STMono3Dは、評価されたすべてのデータセットで顕著なパフォーマンスを達成し、KITTI 3Dオブジェクト検出データセットの完全な教師付き結果を超えています。
論文 参考訳(メタデータ) (2022-04-25T12:23:07Z) - Unsupervised Domain Adaptive 3D Detection with Multi-Level Consistency [90.71745178767203]
ディープラーニングに基づく3Dオブジェクト検出は、大規模な自律走行データセットの出現によって、前例のない成功を収めた。
既存の3Dドメイン適応検出手法は、しばしばターゲットのドメインアノテーションへの事前アクセスを前提とします。
我々は、ソースドメインアノテーションのみを利用する、より現実的な、教師なしの3Dドメイン適応検出について研究する。
論文 参考訳(メタデータ) (2021-07-23T17:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。