論文の概要: Semi-supervised 3D Object Detection via Adaptive Pseudo-Labeling
- arxiv url: http://arxiv.org/abs/2108.06649v1
- Date: Sun, 15 Aug 2021 02:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:11:56.267567
- Title: Semi-supervised 3D Object Detection via Adaptive Pseudo-Labeling
- Title(参考訳): 適応擬似ラベルによる半教師付き3次元物体検出
- Authors: Hongyi Xu, Fengqi Liu, Qianyu Zhou, Jinkun Hao, Zhijie Cao, Zhengyang
Feng, Lizhuang Ma
- Abstract要約: 3次元物体検出はコンピュータビジョンにおいて重要な課題である。
既存のほとんどのメソッドでは、多くの高品質な3Dアノテーションが必要です。
本研究では,屋外3次元物体検出タスクのための擬似ラベルに基づく新しい半教師付きフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.209409027211404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection is an important task in computer vision. Most existing
methods require a large number of high-quality 3D annotations, which are
expensive to collect. Especially for outdoor scenes, the problem becomes more
severe due to the sparseness of the point cloud and the complexity of urban
scenes. Semi-supervised learning is a promising technique to mitigate the data
annotation issue. Inspired by this, we propose a novel semi-supervised
framework based on pseudo-labeling for outdoor 3D object detection tasks. We
design the Adaptive Class Confidence Selection module (ACCS) to generate
high-quality pseudo-labels. Besides, we propose Holistic Point Cloud
Augmentation (HPCA) for unlabeled data to improve robustness. Experiments on
the KITTI benchmark demonstrate the effectiveness of our method.
- Abstract(参考訳): 3dオブジェクト検出は、コンピュータビジョンにおいて重要なタスクである。
既存のほとんどのメソッドでは、多くの高品質な3Dアノテーションが必要です。
特に屋外のシーンでは、点雲の希薄さと都市景観の複雑さにより、問題はさらに深刻になる。
半教師付き学習は、データアノテーションの問題を軽減する有望なテクニックである。
そこで本研究では,屋外3次元物体検出タスクに擬似ラベルを用いた半教師付きフレームワークを提案する。
適応クラス信頼選択モジュール(ACCS)を設計し,高品質な擬似ラベルを生成する。
さらに、ロバスト性を改善するために、ラベルのないデータに対するHolistic Point Cloud Augmentation (HPCA)を提案する。
KITTIベンチマーク実験により,本手法の有効性が示された。
関連論文リスト
- Hardness-Aware Scene Synthesis for Semi-Supervised 3D Object Detection [59.33188668341604]
3次元物体検出は、自律運転知覚の基本的なタスクとして機能する。
ポイントクラウドデータのための高品質なアノテーションを得るためには、コストがかかる。
本稿では,適応型合成シーンを生成するために,ハードネス対応シーン合成(HASS)手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T17:59:23Z) - Point-DETR3D: Leveraging Imagery Data with Spatial Point Prior for Weakly Semi-supervised 3D Object Detection [32.86369670395974]
本稿では,弱半教師付き3D検出のための教師支援フレームワークであるPoint-DETR3Dを紹介する。
ラベル付きデータの5%しか持たないPoint-DETR3Dは、完全な教師付きデータのパフォーマンスを90%以上達成している。
論文 参考訳(メタデータ) (2024-03-22T16:11:29Z) - Find n' Propagate: Open-Vocabulary 3D Object Detection in Urban Environments [67.83787474506073]
我々は,現在のLiDARに基づく3Dオブジェクト検出システムの限界に対処する。
本稿では,3次元OVタスクに対する汎用textscFind n' Propagate アプローチを提案する。
我々は、新しいオブジェクトクラスに対する平均精度(AP)を最大3.97倍に向上させる。
論文 参考訳(メタデータ) (2024-03-20T12:51:30Z) - Dual-Perspective Knowledge Enrichment for Semi-Supervised 3D Object
Detection [55.210991151015534]
本稿では, DPKE という新しい2次元知識豊か化手法を提案する。
我々のDPKEは、データパースペクティブと機能パースペクティブという2つの観点から、限られたトレーニングデータ、特にラベルなしデータの知識を豊かにしています。
論文 参考訳(メタデータ) (2024-01-10T08:56:07Z) - Label-Guided Auxiliary Training Improves 3D Object Detector [32.96310946612949]
3次元物体検出(LG3D)のためのラベル誘導補助訓練法を提案する。
提案したLG3Dは,SUN RGB-DおよびScanNetV2データセット上でVoteNetを2.5%,3.1%改善する。
論文 参考訳(メタデータ) (2022-07-24T14:22:21Z) - ST3D++: Denoised Self-training for Unsupervised Domain Adaptation on 3D
Object Detection [78.71826145162092]
本稿では,ST3D++という名前の自己学習手法を提案する。
擬似ラベル生成プロセスにハイブリット品質を意識した三重項メモリを組み込むことにより、生成された擬似ラベルの品質と安定性を向上させる。
モデルトレーニングの段階では、ソースデータ支援トレーニング戦略とカリキュラムデータ拡張ポリシーを提案する。
論文 参考訳(メタデータ) (2021-08-15T07:49:06Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。