論文の概要: An Empirical Study of Pseudo-Labeling for Image-based 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2208.07137v1
- Date: Mon, 15 Aug 2022 12:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:10:09.440619
- Title: An Empirical Study of Pseudo-Labeling for Image-based 3D Object
Detection
- Title(参考訳): 画像に基づく3次元物体検出のための擬似ラベルの実証的研究
- Authors: Xinzhu Ma, Yuan Meng, Yinmin Zhang, Lei Bai, Jun Hou, Shuai Yi, and
Wanli Ouyang
- Abstract要約: 異なる条件下で,擬似ラベルがベースラインモデルに対して効果的に監視できるかどうかを検討する。
ベルとホイッスルを使わずにKITTI-3Dテストセットの適度なレベルを20.23 APで達成し、ベースラインモデルを6.03 APで改善した。
この研究が、半教師付き環境下で画像に基づく3D検出コミュニティに洞察を与えてくれることを願っている。
- 参考スコア(独自算出の注目度): 72.30883544352918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based 3D detection is an indispensable component of the perception
system for autonomous driving. However, it still suffers from the unsatisfying
performance, one of the main reasons for which is the limited training data.
Unfortunately, annotating the objects in the 3D space is extremely
time/resource-consuming, which makes it hard to extend the training set
arbitrarily. In this work, we focus on the semi-supervised manner and explore
the feasibility of a cheaper alternative, i.e. pseudo-labeling, to leverage the
unlabeled data. For this purpose, we conduct extensive experiments to
investigate whether the pseudo-labels can provide effective supervision for the
baseline models under varying settings. The experimental results not only
demonstrate the effectiveness of the pseudo-labeling mechanism for image-based
3D detection (e.g. under monocular setting, we achieve 20.23 AP for moderate
level on the KITTI-3D testing set without bells and whistles, improving the
baseline model by 6.03 AP), but also show several interesting and noteworthy
findings (e.g. the models trained with pseudo-labels perform better than that
trained with ground-truth annotations based on the same training data). We hope
this work can provide insights for the image-based 3D detection community under
a semi-supervised setting. The codes, pseudo-labels, and pre-trained models
will be publicly available.
- Abstract(参考訳): 画像に基づく3D検出は、自律運転のための知覚システムの必須成分である。
しかし、トレーニングデータに制限がある主な理由の1つとして、不満足なパフォーマンスに悩まされている。
残念ながら、オブジェクトを3D空間にアノテートするのは非常に時間がかかるため、トレーニングセットを任意に拡張することは困難である。
本研究では, 半教師付き方式に着目し, より安価な代替手段である擬似ラベル技術の実現可能性を探究し, 未ラベルデータを活用する。
そこで本研究では,擬似ラベルが,異なる条件下でのベースラインモデルに対する効果的な監視を行うことができるかどうかを,広範な実験により検証する。
実験結果は、画像に基づく3D検出における擬似ラベル機構の有効性を実証するだけでなく(例えば、単眼環境では、ベルやホイッスルを使わずにKITTI-3Dテストセットを適度に20.23 APで達成し、ベースラインモデルを6.03 APで改善するなど)、興味深く興味深い結果(例えば、擬似ラベルで訓練されたモデルは、同じトレーニングデータに基づいてトレーニングされた地味アノテーションよりも優れた性能を発揮する)を示した。
この研究が、半教師付き環境で画像に基づく3D検出コミュニティに洞察を与えてくれることを願っている。
コード、擬似ラベル、事前学習されたモデルが公開される予定だ。
関連論文リスト
- Shelf-Supervised Cross-Modal Pre-Training for 3D Object Detection [52.66283064389691]
最先端の3Dオブジェクト検出器は、しばしば大量のラベル付きデータセットで訓練される。
近年の研究では、ラベル付きデータによる自己教師付き事前学習が、ラベル付きラベルによる検出精度を向上させることが示されている。
組合わせRGBとLiDARデータからゼロショット3Dバウンディングボックスを生成するためのシェルフ制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-14T15:21:57Z) - View-to-Label: Multi-View Consistency for Self-Supervised 3D Object
Detection [46.077668660248534]
本稿では,RGBシーケンスのみから,自己監督型3Dオブジェクト検出を行う手法を提案する。
KITTI 3Dデータセットを用いた実験では,最先端の自己管理手法と同等の性能を示した。
論文 参考訳(メタデータ) (2023-05-29T09:30:39Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - SEAL: Self-supervised Embodied Active Learning using Exploration and 3D
Consistency [122.18108118190334]
本稿では,SEAL(Self-Embodied Embodied Active Learning)というフレームワークを提案する。
インターネットイメージ上で訓練された知覚モデルを使用して、積極的な探索ポリシーを学ぶ。
我々は3Dセマンティックマップを用いて、行動と知覚の両方を、完全に自己管理された方法で学習する。
論文 参考訳(メタデータ) (2021-12-02T06:26:38Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - Self-Supervised Pretraining of 3D Features on any Point-Cloud [40.26575888582241]
3D登録なしで任意の3Dデータを扱うことができる簡単な自己監督関連方法を紹介します。
オブジェクト検出、セマンティックセグメンテーション、オブジェクト分類の9つのベンチマークでモデルを評価し、最新の結果を達成し、教師付きプリトレーニングを上回ります。
論文 参考訳(メタデータ) (2021-01-07T18:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。