論文の概要: Domain Adaptation for Different Sensor Configurations in 3D Object Detection
- arxiv url: http://arxiv.org/abs/2509.04711v1
- Date: Thu, 04 Sep 2025 23:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.428892
- Title: Domain Adaptation for Different Sensor Configurations in 3D Object Detection
- Title(参考訳): 3次元物体検出におけるセンサ構成の異なる領域適応
- Authors: Satoshi Tanaka, Kok Seang Tan, Isamu Yamashita,
- Abstract要約: 3次元物体検出におけるセンサ構成の異なる領域適応に対処する。
下流ファインチューニングと部分層ファインチューニングの2つの手法を提案する。
本研究は,多種多様な車両プラットフォームに3次元物体検出モデルを適用するための実用的でスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 1.4566410781522745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in autonomous driving have underscored the importance of accurate 3D object detection, with LiDAR playing a central role due to its robustness under diverse visibility conditions. However, different vehicle platforms often deploy distinct sensor configurations, causing performance degradation when models trained on one configuration are applied to another because of shifts in the point cloud distribution. Prior work on multi-dataset training and domain adaptation for 3D object detection has largely addressed environmental domain gaps and density variation within a single LiDAR; in contrast, the domain gap for different sensor configurations remains largely unexplored. In this work, we address domain adaptation across different sensor configurations in 3D object detection. We propose two techniques: Downstream Fine-tuning (dataset-specific fine-tuning after multi-dataset training) and Partial Layer Fine-tuning (updating only a subset of layers to improve cross-configuration generalization). Using paired datasets collected in the same geographic region with multiple sensor configurations, we show that joint training with Downstream Fine-tuning and Partial Layer Fine-tuning consistently outperforms naive joint training for each configuration. Our findings provide a practical and scalable solution for adapting 3D object detection models to the diverse vehicle platforms.
- Abstract(参考訳): 自律運転の最近の進歩は、様々な視認性条件下での堅牢性により、LiDARが中心的な役割を担いながら、正確な3Dオブジェクト検出の重要性を強調している。
しかし、異なる車両プラットフォームは、異なるセンサー構成をデプロイすることが多いため、ポイントクラウド分布の変化のために、ある構成でトレーニングされたモデルが別の構成に適用されると、パフォーマンスが低下する。
マルチデータセットのトレーニングと3Dオブジェクト検出のためのドメイン適応に関する以前の研究は、単一のLiDAR内の環境領域のギャップと密度のばらつきに大きく対処してきた。
本研究では,3次元物体検出におけるセンサ構成の異なる領域適応に対処する。
本稿では、下流ファインチューニング(マルチデータセットトレーニング後のデータセット固有のファインチューニング)と部分層ファインチューニング(クロスコンフィグレーションの一般化を改善するために、レイヤのサブセットだけを更新する)の2つの手法を提案する。
複数のセンサ構成を持つ同じ地理的領域で収集されたペアデータセットを用いて、ダウンストリームファインチューニングと部分層ファインチューニングとのジョイントトレーニングが、各構成に対するナイーブジョイントトレーニングを一貫して上回っていることを示す。
本研究は,多種多様な車両プラットフォームに3次元物体検出モデルを適用するための実用的でスケーラブルなソリューションを提供する。
関連論文リスト
- TransBridge: Boost 3D Object Detection by Scene-Level Completion with Transformer Decoder [66.22997415145467]
本稿では,スパース領域における検出機能を改善する共同補完・検出フレームワークを提案する。
具体的には,トランスブリッジ(TransBridge)を提案する。トランスブリッジ(TransBridge)はトランスフォーマーをベースとした新しいアップサンプリングブロックである。
その結果,本フレームワークは,各手法の平均精度(mAP)が0.7から1.5の範囲で,エンドツーエンドの3Dオブジェクト検出を一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-12-12T00:08:03Z) - Investigating Domain Gaps for Indoor 3D Object Detection [60.55242233729081]
本研究では,屋内3次元物体検出器を1つのデータセットから別のデータセットに適応させる作業について考察する。
本稿では, ScanNet, SUN RGB-D, 3D Frontのデータセットと, 新たに提案した大規模データセット ProcTHOR-OD と ProcFront を用いたベンチマークを提案する。
本研究は,3次元物体検出器におけるドメインギャップの違いが,合成から現実への適応,点雲品質適応,レイアウト適応,インスタンス特徴適応など,さまざまな適応シナリオについて実験を行った。
論文 参考訳(メタデータ) (2025-08-24T16:34:19Z) - Syn-to-Real Unsupervised Domain Adaptation for Indoor 3D Object Detection [50.448520056844885]
室内3次元物体検出における非教師なし領域適応のための新しいフレームワークを提案する。
合成データセット3D-FRONTから実世界のデータセットScanNetV2とSUN RGB-Dへの適応結果は、ソースオンリーベースラインよりも9.7%、9.1%のmAP25が顕著に改善されていることを示している。
論文 参考訳(メタデータ) (2024-06-17T08:18:41Z) - DiffuBox: Refining 3D Object Detection with Point Diffusion [74.01759893280774]
本研究では,3次元物体の検出と局所化を確保するために,新しい拡散型ボックス精細化手法を提案する。
この方法は、粗いバウンディングボックスを囲むLiDAR点に条件付きドメインに依存しない拡散モデルを用いて、ボックスの位置、サイズ、方向を同時に洗練する。
結果から,異なるデータセット,オブジェクトクラス,検出器間での大幅な改善が示された。
論文 参考訳(メタデータ) (2024-05-25T03:14:55Z) - Multimodal 3D Object Detection on Unseen Domains [37.142470149311904]
ドメイン適応アプローチは、この問題に対処するために、テストディストリビューションから無注釈のサンプルへのアクセスを前提とします。
マルチモーダル融合および3次元オブジェクト検出のための教師付きコントラスト学習フレームワークであるCLIX$text3D$を提案する。
CLIX$text3D$は、複数のデータセットシフト下での最先端のドメイン一般化性能を示す。
論文 参考訳(メタデータ) (2024-04-17T21:47:45Z) - MS3D: Leveraging Multiple Detectors for Unsupervised Domain Adaptation
in 3D Object Detection [7.489722641968593]
マルチソース3D(MS3D)は、3Dオブジェクト検出における教師なしドメイン適応のための新しい自己学習パイプラインである。
提案するKernel-Density Estimation (KDE) Box Fusion法は,複数のドメインからのボックス提案を融合して擬似ラベルを得る。
MS3Dはドメインシフトに対してより堅牢性を示し、より大きな距離で正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-04-05T13:29:21Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - CL3D: Unsupervised Domain Adaptation for Cross-LiDAR 3D Detection [16.021932740447966]
クロスLiDAR3D検出のためのドメイン適応は、生データ表現に大きなギャップがあるため困難である。
以上の課題を克服する、教師なしのドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2022-12-01T03:22:55Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - An Unsupervised Domain Adaptive Approach for Multimodal 2D Object
Detection in Adverse Weather Conditions [5.217255784808035]
本稿では、ソースとターゲットドメイン間のドメインギャップを埋めるために、教師なしのドメイン適応フレームワークを提案する。
天候の歪みをシミュレートするデータ拡張方式を用いて、ドメインの混乱を増し、ソースデータへの過度な適合を防止する。
DENSEデータセットで行った実験は、我々の手法がドメインギャップを大幅に軽減できることを示している。
論文 参考訳(メタデータ) (2022-03-07T18:10:40Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。