論文の概要: Pseudo-label Correction and Learning For Semi-Supervised Object
Detection
- arxiv url: http://arxiv.org/abs/2303.02998v1
- Date: Mon, 6 Mar 2023 09:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:33:43.608535
- Title: Pseudo-label Correction and Learning For Semi-Supervised Object
Detection
- Title(参考訳): 半教師対象検出のための擬似ラベル補正と学習
- Authors: Yulin He, Wei Chen, Ke Liang, Yusong Tan, Zhengfa Liang, Yulan Guo
- Abstract要約: 本稿では,擬似ラベル補正と雑音認識学習という2つの手法を提案する。
擬似ラベル補正には, マルチラウンド精製法と多声重み付け法を導入する。
雑音を意識しない学習では、回帰タスクにおいて、IoU(Intersection over Union)と負の相関を持つ損失重み関数を導入する。
- 参考スコア(独自算出の注目度): 34.030270359567204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pseudo-Labeling has emerged as a simple yet effective technique for
semi-supervised object detection (SSOD). However, the inevitable noise problem
in pseudo-labels significantly degrades the performance of SSOD methods. Recent
advances effectively alleviate the classification noise in SSOD, while the
localization noise which is a non-negligible part of SSOD is not
well-addressed. In this paper, we analyse the localization noise from the
generation and learning phases, and propose two strategies, namely pseudo-label
correction and noise-unaware learning. For pseudo-label correction, we
introduce a multi-round refining method and a multi-vote weighting method. The
former iteratively refines the pseudo boxes to improve the stability of
predictions, while the latter smoothly self-corrects pseudo boxes by weighing
the scores of surrounding jittered boxes. For noise-unaware learning, we
introduce a loss weight function that is negatively correlated with the
Intersection over Union (IoU) in the regression task, which pulls the predicted
boxes closer to the object and improves localization accuracy. Our proposed
method, Pseudo-label Correction and Learning (PCL), is extensively evaluated on
the MS COCO and PASCAL VOC benchmarks. On MS COCO, PCL outperforms the
supervised baseline by 12.16, 12.11, and 9.57 mAP and the recent SOTA
(SoftTeacher) by 3.90, 2.54, and 2.43 mAP under 1\%, 5\%, and 10\% labeling
ratios, respectively. On PASCAL VOC, PCL improves the supervised baseline by
5.64 mAP and the recent SOTA (Unbiased Teacherv2) by 1.04 mAP on AP$^{50}$.
- Abstract(参考訳): Pseudo-Labelingは、半教師付き物体検出(SSOD)の単純かつ効果的な手法として登場した。
しかし、擬似ラベルにおける避けられないノイズ問題はSSOD法の性能を著しく低下させる。
近年,SSODの分類ノイズは効果的に軽減されているが,SSODの非無視部分である局所雑音は十分に適応されていない。
本稿では, 生成・学習段階から局所化雑音を分析し, 擬似ラベル補正と雑音認識学習という2つの手法を提案する。
擬似ラベル補正には, マルチラウンド精製法と多声重み付け法を導入する。
前者は予測の安定性を向上させるために擬似箱を反復的に洗練し、後者は周囲の散らばった箱のスコアを測り、円滑に自己修正する。
ノイズを意識しない学習では,回帰課題における結合(iou)の交点と負の相関関係を持つ損失重み関数を導入し,予測ボックスを物体に近づけて位置推定精度を向上させる。
提案手法であるPseudo-label Correction and Learning (PCL) は,MS COCOおよびPASCAL VOCベンチマークで広く評価されている。
MS COCOでは、PCLは教師付きベースラインを12.16、12.11、9.57 mAP、最近のSOTA(SoftTeacher)を3.90、2.54、および2.43 mAPでそれぞれ1\%、5\%、そして10\%で上回る。
PASCAL VOCでは、PCLは教師付きベースラインを5.64 mAPで改善し、最近のSOTA(Unbiased Teacherv2)を1.04 mAPでAP$^{50}$で改善する。
関連論文リスト
- Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - PseCo: Pseudo Labeling and Consistency Training for Semi-Supervised
Object Detection [42.75316070378037]
予測誘導ラベル割り当て(PLA)と正の確率整合投票(PCV)を含むNPL(Noisy Pseudo box Learning)を提案する。
ベンチマークでは PSEudo labeling と Consistency training (PseCo) が SOTA (Soft Teacher) の2.0, 1.8, 2.0 を1%, 5%, 10% で上回っている。
論文 参考訳(メタデータ) (2022-03-30T13:59:22Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - SparseDet: Improving Sparsely Annotated Object Detection with
Pseudo-positive Mining [76.95808270536318]
Pseudo- positive mining を用いてラベル付き地域とラベルなし地域を分離するエンド・ツー・エンドシステムを提案する。
ラベル付き領域は通常通り処理されるが、ラベルなし領域の処理には自己教師付き学習が使用される。
我々は,PASCAL-VOCとCOCOデータセットの5つの分割に対して,最先端の性能を達成するための徹底的な実験を行った。
論文 参考訳(メタデータ) (2022-01-12T18:57:04Z) - Semi-Supervised Object Detection with Adaptive Class-Rebalancing
Self-Training [5.874575666947381]
本研究は、追加のラベル付きデータを用いて半教師付き物体検出を行い、検出性能を向上させることを目的とする。
疑似ラベルを生成するための新しい2段階フィルタリングアルゴリズムを提案する。
提案手法は,MS-COCOおよびVOCベンチマークの良好な改善を実現する。
論文 参考訳(メタデータ) (2021-07-11T12:14:42Z) - Rethinking Pseudo Labels for Semi-Supervised Object Detection [84.697097472401]
物体検出に適した確実な擬似ラベルを導入する。
我々は,クラス不均衡問題を緩和するために,各カテゴリの擬似ラベルと再重み付き損失関数を生成するために使用する閾値を動的に調整する。
提案手法では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%改善する。
論文 参考訳(メタデータ) (2021-06-01T01:32:03Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。