論文の概要: Adaptive Self-Training for Object Detection
- arxiv url: http://arxiv.org/abs/2212.05911v2
- Date: Thu, 23 Nov 2023 16:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 04:56:04.793640
- Title: Adaptive Self-Training for Object Detection
- Title(参考訳): 物体検出のための適応的自己学習
- Authors: Renaud Vandeghen and Gilles Louppe and Marc Van Droogenbroeck
- Abstract要約: オブジェクト検出のための自己評価手法(ASTOD)を提案する。
ASTODはスコアヒストグラムの基底値に基づいて閾値を決定する。
擬似ラベル付けの段階では, ラベル付き画像の異なるビューを用いて, 誤り予測の回数を減らす。
- 参考スコア(独自算出の注目度): 13.07105239116411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has emerged as an effective solution for solving the task of
object detection in images but at the cost of requiring large labeled datasets.
To mitigate this cost, semi-supervised object detection methods, which consist
in leveraging abundant unlabeled data, have been proposed and have already
shown impressive results. However, most of these methods require linking a
pseudo-label to a ground-truth object by thresholding. In previous works, this
threshold value is usually determined empirically, which is time consuming, and
only done for a single data distribution. When the domain, and thus the data
distribution, changes, a new and costly parameter search is necessary. In this
work, we introduce our method Adaptive Self-Training for Object Detection
(ASTOD), which is a simple yet effective teacher-student method. ASTOD
determines without cost a threshold value based directly on the ground value of
the score histogram. To improve the quality of the teacher predictions, we also
propose a novel pseudo-labeling procedure. We use different views of the
unlabeled images during the pseudo-labeling step to reduce the number of missed
predictions and thus obtain better candidate labels. Our teacher and our
student are trained separately, and our method can be used in an iterative
fashion by replacing the teacher by the student. On the MS-COCO dataset, our
method consistently performs favorably against state-of-the-art methods that do
not require a threshold parameter, and shows competitive results with methods
that require a parameter sweep search. Additional experiments with respect to a
supervised baseline on the DIOR dataset containing satellite images lead to
similar conclusions, and prove that it is possible to adapt the score threshold
automatically in self-training, regardless of the data distribution. The code
is available at https:// github.com/rvandeghen/ASTOD
- Abstract(参考訳): ディープラーニングは、画像内のオブジェクト検出のタスクを解決する効果的なソリューションとして登場したが、大きなラベル付きデータセットを必要とするコストがかかる。
このコストを軽減するために、豊富なラベルのないデータを活用する半教師付き物体検出手法が提案され、既に印象的な結果が出ている。
しかし、これらの方法のほとんどがしきい値化によって擬似ラベルと接地オブジェクトをリンクする必要がある。
以前の研究では、このしきい値は通常経験的に決定され、それは時間がかかり、1つのデータ分布に対してのみ実行される。
ドメイン、つまりデータ分布が変化すると、新しくコストのかかるパラメータ検索が必要となる。
本稿では,単純かつ効果的な教師教育手法である物体検出のための適応型自己学習法(astod)を提案する。
astodはスコアヒストグラムの基底値に基づいて閾値をコストなしで決定する。
また,教師の予測の質を向上させるために,新しい擬似ラベル手法を提案する。
疑似ラベル付けステップでは,未ラベル画像の異なるビューを用いて,誤り予測回数を削減し,よりよい候補ラベルを得る。
教師と生徒は個別に教育を受けており、教師を生徒に置き換えることで、反復的な手法で利用することができる。
ms-cocoデータセットでは、しきい値パラメータを必要としない最先端のメソッドに対して一貫して良好に動作し、パラメータスイープ検索を必要とするメソッドで競合結果を示す。
衛星画像を含むDIORデータセット上の教師付きベースラインに関する追加実験は、同様の結論を導き、データ分布に関係なく、自己学習においてスコア閾値を自動で適応させることが可能であることを証明した。
コードはhttps:// github.com/rvandeghen/ASTODで公開されている。
関連論文リスト
- DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Non-iterative optimization of pseudo-labeling thresholds for training
object detection models from multiple datasets [2.1485350418225244]
低コストデータセットの集合からオブジェクト検出を学習するために、擬似ラベル閾値を最適化する非定型的手法を提案する。
提案手法はCOCOおよびVOCデータセット上の格子探索に匹敵するmAPを実現することを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-19T00:31:34Z) - Weighted Distillation with Unlabeled Examples [15.825078347452024]
ラベルなし例による蒸留は、ラベル付きデータの量を制限する設定において、ディープニューラルネットワークをトレーニングするための一般的で強力な方法である。
本稿では, 蒸留訓練のパラダイムに合わせて, 学生の損失関数の再重み付けに基づいて, この問題に対処するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-13T04:08:56Z) - Improving Localization for Semi-Supervised Object Detection [3.5493798890908104]
予測された有界ボックスのフィルタリングを改善するために,有界ボックスのローカライゼーションのための追加の分類タスクを導入する。
我々のIL-netは制限付きアノテーション方式でデータセット上でSSOD性能を1.14%向上させることを示した。
論文 参考訳(メタデータ) (2022-06-21T08:39:38Z) - Label Matching Semi-Supervised Object Detection [85.99282969977541]
半教師対象検出は,教師主導型自己学習の開発において大きな進歩を遂げている。
ラベルミスマッチ問題は、以前の研究でまだ完全に解明されていないため、自己学習中に重大な確証バイアスが生じる。
本稿では,2つの異なる相補的視点から,単純かつ効果的な LabelMatch フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-14T05:59:41Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Semi-supervised Domain Adaptation via Sample-to-Sample Self-Distillation [30.556465364799948]
半教師付きドメイン適応(Semi-supervised domain adapt, SSDA)とは、学習者がソースドメイン上に大きなラベル付きデータセットが与えられたときに、ラベル付きサンプルの小さなセットだけで新しいドメインに適応することである。
本稿では,サンプル対を用いた自己蒸留を用いて,対象領域にモデルを適応させる,ペアベースのSSDA法を提案する。
論文 参考訳(メタデータ) (2021-11-29T07:13:36Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Deep Active Learning for Biased Datasets via Fisher Kernel
Self-Supervision [5.352699766206807]
アクティブラーニング(AL)は、データ要求型ディープニューラルネットワーク(DNN)のラベル付け作業を最小化する
自己教師型フィッシャーカーネル(FK)を用いた特徴密度マッチングのための低複雑さ手法を提案する。
本手法は,MNIST,SVHN,ImageNetの分類において,処理の1/10しか必要とせず,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-01T03:56:32Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。