論文の概要: Rethinking Self-training for Semi-supervised Landmark Detection: A Selection-free Approach
- arxiv url: http://arxiv.org/abs/2404.04556v1
- Date: Sat, 6 Apr 2024 08:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 20:39:11.482169
- Title: Rethinking Self-training for Semi-supervised Landmark Detection: A Selection-free Approach
- Title(参考訳): 半教師付きランドマーク検出のための自己学習の再考:選択不要アプローチ
- Authors: Haibo Jin, Haoxuan Che, Hao Chen,
- Abstract要約: Self-Training for Landmark Detection (STLD) は、明示的な擬似ラベル選択を必要としない手法である。
STLDは、信頼性の高いタスクから信頼性の低いタスクへと徐々に移行する、確認バイアスに対処するタスクカリキュラムを構築する。
3つの顔と1つの医学的ランドマーク検出ベンチマークの実験は、STLDが半教師付き設定と全監督型設定の両方で既存の手法を一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 4.511384690621755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-training is a simple yet effective method for semi-supervised learning, during which pseudo-label selection plays an important role for handling confirmation bias. Despite its popularity, applying self-training to landmark detection faces three problems: 1) The selected confident pseudo-labels often contain data bias, which may hurt model performance; 2) It is not easy to decide a proper threshold for sample selection as the localization task can be sensitive to noisy pseudo-labels; 3) coordinate regression does not output confidence, making selection-based self-training infeasible. To address the above issues, we propose Self-Training for Landmark Detection (STLD), a method that does not require explicit pseudo-label selection. Instead, STLD constructs a task curriculum to deal with confirmation bias, which progressively transitions from more confident to less confident tasks over the rounds of self-training. Pseudo pretraining and shrink regression are two essential components for such a curriculum, where the former is the first task of the curriculum for providing a better model initialization and the latter is further added in the later rounds to directly leverage the pseudo-labels in a coarse-to-fine manner. Experiments on three facial and one medical landmark detection benchmark show that STLD outperforms the existing methods consistently in both semi- and omni-supervised settings.
- Abstract(参考訳): 自己学習は、半教師付き学習においてシンプルだが効果的な方法であり、疑似ラベルの選択は、確認バイアスを扱う上で重要な役割を果たす。
その人気にもかかわらず、ランドマーク検出に自己学習を適用することは、3つの問題に直面している。
1) 選択された確実な疑似ラベルには、しばしばデータバイアスが含まれており、それがモデルの性能を損なう可能性がある。
2) 局所化作業がうるさい擬似ラベルに敏感であるため, サンプル選択の適切なしきい値を決定するのは容易ではない。
3) 座標回帰は信頼性を出力せず, 選択に基づく自己学習が不可能である。
上記の課題に対処するために,明示的な擬似ラベル選択を必要としない自己評価型ランドマーク検出法(STLD)を提案する。
代わりにSTLDは、確認バイアスに対処するタスクカリキュラムを構築する。
前者はより良いモデル初期化を提供するためのカリキュラムの最初のタスクであり、後者は後段のラウンドでさらに追加され、擬似ラベルを粗い方法で直接活用する。
3つの顔と1つの医学的ランドマーク検出ベンチマークの実験は、STLDが半教師付き設定と全監督型設定の両方で既存の手法を一貫して上回っていることを示している。
関連論文リスト
- Towards Adaptive Pseudo-label Learning for Semi-Supervised Temporal Action Localization [10.233225586034665]
既存の手法はしばしば厳密な条件に基づいて擬似ラベルをフィルタリングし、最適でない擬似ラベルのランク付けと選択につながる。
擬似ラベル選択を容易にするための適応擬似ラベル学習フレームワークを提案する。
本手法は,各種半教師付き環境下での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-10T14:00:19Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Cross Pseudo-Labeling for Semi-Supervised Audio-Visual Source
Localization [9.791311361007397]
本稿では,クロス擬似ラベル法 (XPL) という新しい手法を提案する。
XPLは既存の手法よりも優れており、最先端の性能を達成しつつ、検証バイアスを効果的に軽減している。
論文 参考訳(メタデータ) (2024-03-05T16:28:48Z) - Doubly Robust Self-Training [46.168395767948965]
本稿では,新しい半教師付きアルゴリズムである二重頑健な自己学習を導入する。
通常の自己学習ベースラインよりも2倍頑健な損失の優位性を実証する。
論文 参考訳(メタデータ) (2023-06-01T00:57:16Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - Label Matching Semi-Supervised Object Detection [85.99282969977541]
半教師対象検出は,教師主導型自己学習の開発において大きな進歩を遂げている。
ラベルミスマッチ問題は、以前の研究でまだ完全に解明されていないため、自己学習中に重大な確証バイアスが生じる。
本稿では,2つの異なる相補的視点から,単純かつ効果的な LabelMatch フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-14T05:59:41Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Two-phase Pseudo Label Densification for Self-training based Domain
Adaptation [93.03265290594278]
TPLDと呼ばれる,新規な二相擬似ラベル高密度化フレームワークを提案する。
第1フェーズでは,スライディングウインドウ投票を用いて,画像内の内在的空間相関を利用して,自信のある予測を広める。
第2フェーズでは,信頼度に基づく容易な分類を行う。
トレーニングプロセスの容易化と騒音予測の回避を目的として,ブートストラップ機構の導入を行った。
論文 参考訳(メタデータ) (2020-12-09T02:35:25Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。