論文の概要: Density-Insensitive Unsupervised Domain Adaption on 3D Object Detection
- arxiv url: http://arxiv.org/abs/2304.09446v1
- Date: Wed, 19 Apr 2023 06:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 15:18:45.105383
- Title: Density-Insensitive Unsupervised Domain Adaption on 3D Object Detection
- Title(参考訳): 密度不感な非教師付き領域適応による3次元物体検出
- Authors: Qianjiang Hu, Daizong Liu, Wei Hu
- Abstract要約: ポイントクラウドからの3Dオブジェクト検出は、安全クリティカルな自動運転において不可欠である。
本稿では,密度依存性ドメインギャップに対処する密度依存性ドメイン適応フレームワークを提案する。
3つの広く採用されている3次元オブジェクト検出データセットの実験結果から,提案手法が最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 19.703181080679176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection from point clouds is crucial in safety-critical
autonomous driving. Although many works have made great efforts and achieved
significant progress on this task, most of them suffer from expensive
annotation cost and poor transferability to unknown data due to the domain gap.
Recently, few works attempt to tackle the domain gap in objects, but still fail
to adapt to the gap of varying beam-densities between two domains, which is
critical to mitigate the characteristic differences of the LiDAR collectors. To
this end, we make the attempt to propose a density-insensitive domain adaption
framework to address the density-induced domain gap. In particular, we first
introduce Random Beam Re-Sampling (RBRS) to enhance the robustness of 3D
detectors trained on the source domain to the varying beam-density. Then, we
take this pre-trained detector as the backbone model, and feed the unlabeled
target domain data into our newly designed task-specific teacher-student
framework for predicting its high-quality pseudo labels. To further adapt the
property of density-insensitivity into the target domain, we feed the teacher
and student branches with the same sample of different densities, and propose
an Object Graph Alignment (OGA) module to construct two object-graphs between
the two branches for enforcing the consistency in both the attribute and
relation of cross-density objects. Experimental results on three widely adopted
3D object detection datasets demonstrate that our proposed domain adaption
method outperforms the state-of-the-art methods, especially over
varying-density data. Code is available at
https://github.com/WoodwindHu/DTS}{https://github.com/WoodwindHu/DTS.
- Abstract(参考訳): ポイントクラウドからの3Dオブジェクト検出は、安全クリティカルな自動運転において不可欠である。
多くの研究がこのタスクに多大な努力を払って大きな進歩を遂げてきたが、その多くはドメインギャップのため、高価なアノテーションコストと未知のデータへの転送性に悩まされている。
近年、オブジェクトのドメイン間ギャップに取り組む試みは少ないが、2つのドメイン間の異なるビーム密度のギャップに適応できず、lidarコレクタの特性の違いを緩和することが重要である。
そこで,我々は密度に敏感なドメイン適応フレームワークを提案し,密度に誘発されるドメインギャップに対処する。
特に,光源領域で訓練された3次元検出器のロバスト性を高めるために,まずランダムビーム再サンプリング(rbrs)を導入する。
そして、この事前学習された検出器をバックボーンモデルとし、未ラベルのターゲットドメインデータを、その高品質な擬似ラベルを予測するために新しく設計されたタスク特化教師学生フレームワークに供給する。
対象領域に密度非感受性の特性を更に適応させるため,教師と学生の枝に異なる密度のサンプルを供給し,2つの枝の間に2つのオブジェクトグラフを構築するためのオブジェクトグラフアライメント(OGA)モジュールを提案する。
3つの広く採用されている3次元オブジェクト検出データセットによる実験結果から,提案手法が最先端の手法,特に密度データよりも優れていることが示された。
コードはhttps://github.com/WoodwindHu/DTS}{https://github.com/WoodwindHu/DTSで入手できる。
関連論文リスト
- Semi-Supervised Domain Adaptation Using Target-Oriented Domain Augmentation for 3D Object Detection [13.873877368139667]
3Dオブジェクト検出は、自動運転やロボティクスといったアプリケーションには不可欠だ。
Semi-Supervised Domain Adaptation (SSDA)は、ソースドメインからターゲットドメインへの知識転送によって、これらの課題を軽減することを目的としている。
本稿では,LiDARを用いた3Dオブジェクト検出に適した新しいSSDA手法であるTarget-Oriented Augmentation Domain (TODA)を提案する。
論文 参考訳(メタデータ) (2024-06-17T08:19:40Z) - Multimodal 3D Object Detection on Unseen Domains [37.142470149311904]
ドメイン適応アプローチは、この問題に対処するために、テストディストリビューションから無注釈のサンプルへのアクセスを前提とします。
マルチモーダル融合および3次元オブジェクト検出のための教師付きコントラスト学習フレームワークであるCLIX$text3D$を提案する。
CLIX$text3D$は、複数のデータセットシフト下での最先端のドメイン一般化性能を示す。
論文 参考訳(メタデータ) (2024-04-17T21:47:45Z) - Revisiting Domain-Adaptive 3D Object Detection by Reliable, Diverse and
Class-balanced Pseudo-Labeling [38.07637524378327]
ドメイン適応型3Dオブジェクト検出において,疑似ラベリング技術を用いた教師なしドメイン適応(DA)が重要なアプローチとして浮上している。
既存のDAメソッドは、マルチクラスのトレーニング環境に適用した場合、パフォーマンスが大幅に低下する。
本稿では,すべてのクラスを一度に検出する学習に適した新しいReDBフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-16T04:34:11Z) - Bi3D: Bi-domain Active Learning for Cross-domain 3D Object Detection [32.29833072399945]
クロスドメインな3Dオブジェクト検出タスクを解決するために,Biドメインのアクティブな学習手法,すなわちBi3Dを提案する。
Bi3D は UDA ベースの作業 (84.29%) と比較して有望な目標領域検出精度 (KITTI の89.63%) を達成する。
論文 参考訳(メタデータ) (2023-03-10T12:38:37Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - Geometry-Aware Network for Domain Adaptive Semantic Segmentation [64.00345743710653]
本稿では,ドメイン間のギャップを小さくするために,ドメイン適応のための幾何学的ネットワーク(GANDA)を提案する。
我々は、RGB-D画像から生成された点雲上の3Dトポロジを利用して、対象領域における座標色歪みと擬似ラベルの微細化を行う。
我々のモデルは,GTA5->CityscapesとSynTHIA->Cityscapesの最先端技術より優れている。
論文 参考訳(メタデータ) (2022-12-02T00:48:44Z) - Cross Domain Object Detection by Target-Perceived Dual Branch
Distillation [49.68119030818388]
クロスドメインオブジェクト検出は、現実的で挑戦的なタスクです。
本稿では,TDD(Target-perceived Dual-branch Distillation)フレームワークを提案する。
私たちのTDDは、すべてのベンチマークで最先端のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-05-03T03:51:32Z) - Unsupervised Domain Adaptive 3D Detection with Multi-Level Consistency [90.71745178767203]
ディープラーニングに基づく3Dオブジェクト検出は、大規模な自律走行データセットの出現によって、前例のない成功を収めた。
既存の3Dドメイン適応検出手法は、しばしばターゲットのドメインアノテーションへの事前アクセスを前提とします。
我々は、ソースドメインアノテーションのみを利用する、より現実的な、教師なしの3Dドメイン適応検出について研究する。
論文 参考訳(メタデータ) (2021-07-23T17:19:23Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - SF-UDA$^{3D}$: Source-Free Unsupervised Domain Adaptation for
LiDAR-Based 3D Object Detection [66.63707940938012]
LiDAR点雲のみに基づく3Dオブジェクト検出器は、現代のストリートビューベンチマークの最先端を保っている。
本稿ではSF-UDA$3D$で最先端のPointRCNN 3D検出器をドメイン適応し、アノテーションのないドメインをターゲットにする。
論文 参考訳(メタデータ) (2020-10-16T08:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。