論文の概要: Viewer-Centred Surface Completion for Unsupervised Domain Adaptation in
3D Object Detection
- arxiv url: http://arxiv.org/abs/2209.06407v1
- Date: Wed, 14 Sep 2022 04:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:24:58.464940
- Title: Viewer-Centred Surface Completion for Unsupervised Domain Adaptation in
3D Object Detection
- Title(参考訳): 3次元物体検出における教師なし領域適応のためのビューア中心表面補完
- Authors: Darren Tsai, Julie Stephany Berrio, Mao Shan, Eduardo Nebot, Stewart
Worrall
- Abstract要約: 3D検出器は、トレーニング対象のデータセットに過度に適合する傾向がある。これにより、検出器が1つのデータセットでトレーニングされ、別のデータセットでテストされると、精度が大幅に低下する。
我々は、新しいビューア中心のサーフェス補完ネットワーク(VCN)を設計し、これをSEE-VCN(SEE-VCN)というアプローチで解決する。
SEE-VCNにより、データセット全体にわたるオブジェクトの統一表現が得られ、ネットワークはスキャンパターンに過度に適合するのではなく、幾何学の学習に集中することができる。
- 参考スコア(独自算出の注目度): 7.489722641968593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Every autonomous driving dataset has a different configuration of sensors,
originating from distinct geographic regions and covering various scenarios. As
a result, 3D detectors tend to overfit the datasets they are trained on. This
causes a drastic decrease in accuracy when the detectors are trained on one
dataset and tested on another. We observe that lidar scan pattern differences
form a large component of this reduction in performance. We address this in our
approach, SEE-VCN, by designing a novel viewer-centred surface completion
network (VCN) to complete the surfaces of objects of interest within an
unsupervised domain adaptation framework, SEE. With SEE-VCN, we obtain a
unified representation of objects across datasets, allowing the network to
focus on learning geometry, rather than overfitting on scan patterns. By
adopting a domain-invariant representation, SEE-VCN can be classed as a
multi-target domain adaptation approach where no annotations or re-training is
required to obtain 3D detections for new scan patterns. Through extensive
experiments, we show that our approach outperforms previous domain adaptation
methods in multiple domain adaptation settings. Our code and data are available
at https://github.com/darrenjkt/SEE-VCN.
- Abstract(参考訳): 各自動運転データセットは、異なる地理的領域から派生し、さまざまなシナリオをカバーする、異なるセンサー構成を持っている。
その結果、3D検出器はトレーニング対象のデータセットに過度に適合する傾向にある。
これにより、検出器が1つのデータセットでトレーニングされ、別のデータセットでテストされると、大幅に精度が低下する。
lidarスキャンパターンの違いは、この性能低下の大きな要素を形成することを観察する。
本稿では,新しいビューア中心表面補完ネットワーク(VCN, Viewer-centred surface completion network)を設計し,教師なしドメイン適応フレームワーク(SEE)内で関心のあるオブジェクトの表面を補完する手法であるSEE-VCNを提案する。
SEE-VCNにより、データセット間のオブジェクトの統一表現が得られ、ネットワークはスキャンパターンに過度に適合するのではなく、幾何学の学習に集中することができる。
ドメイン不変表現を採用することで、SEE-VCNは、新しいスキャンパターンの3D検出を得るためにアノテーションや再トレーニングを必要としないマルチターゲットドメイン適応アプローチに分類することができる。
本研究では,複数のドメイン適応設定において,従来のドメイン適応手法よりも優れた性能を示す。
私たちのコードとデータはhttps://github.com/darrenjkt/see-vcnで入手できます。
関連論文リスト
- Multimodal 3D Object Detection on Unseen Domains [37.142470149311904]
ドメイン適応アプローチは、この問題に対処するために、テストディストリビューションから無注釈のサンプルへのアクセスを前提とします。
マルチモーダル融合および3次元オブジェクト検出のための教師付きコントラスト学習フレームワークであるCLIX$text3D$を提案する。
CLIX$text3D$は、複数のデータセットシフト下での最先端のドメイン一般化性能を示す。
論文 参考訳(メタデータ) (2024-04-17T21:47:45Z) - M&M3D: Multi-Dataset Training and Efficient Network for Multi-view 3D
Object Detection [2.5158048364984564]
カメラのみのデータとBird's-Eye-View Mapを用いたマルチビュー3Dオブジェクト検出のためのネットワーク構造を提案した。
私の仕事は、現在の重要なドメイン適応とビジュアルデータ転送に基づいています。
本研究は,3次元情報を利用可能な意味情報として利用し,視覚的言語伝達設計にブレンドした2次元多視点画像特徴について述べる。
論文 参考訳(メタデータ) (2023-11-02T04:28:51Z) - T-UDA: Temporal Unsupervised Domain Adaptation in Sequential Point
Clouds [2.5291108878852864]
教師なしドメイン適応(UDA)メソッドは、1つの(ソース)ドメインでトレーニングされたモデルに、アノテーションが利用可能な他の(ターゲット)ドメインに適応する。
本稿では,両トレンドの長所を活かした新しい領域適応手法を提案する。この組み合わせにより,運転シーンの3次元セマンティックセマンティックセグメンテーションのタスクにおいて,大きなパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2023-09-15T10:47:12Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - GPA-3D: Geometry-aware Prototype Alignment for Unsupervised Domain
Adaptive 3D Object Detection from Point Clouds [19.1949602403668]
既存の領域適応型3D検出法では,特徴空間における分布差の問題を適切に考慮していない。
本研究では, 点雲オブジェクトからの固有幾何学的関係を明示的に活用し, 特徴差を低減した, 教師なし領域適応型textbf3D 検出フレームワークを提案する。
nuScenes や KITTI など,様々なベンチマークで得られた評価結果は,GPA-3D の適応シナリオに対する最先端アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-16T04:15:21Z) - MDT3D: Multi-Dataset Training for LiDAR 3D Object Detection
Generalization [3.8243923744440926]
特定の点分布を持つソースデータセットでトレーニングされた3Dオブジェクト検出モデルは、目に見えないデータセットに一般化する上で困難であることが示されている。
我々は、アノテーション付きソースデータセットから利用可能な情報を、MDT3D(Multi-Dataset Training for 3D Object Detection)メソッドで活用する。
トレーニング中にデータセットの混合をどのように管理し、最後にクロスデータセット拡張メソッド、すなわちクロスデータセットオブジェクトインジェクションを導入するかを示します。
論文 参考訳(メタデータ) (2023-08-02T08:20:00Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。