論文の概要: Twice Class Bias Correction for Imbalanced Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2312.16604v1
- Date: Wed, 27 Dec 2023 15:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 18:38:05.770922
- Title: Twice Class Bias Correction for Imbalanced Semi-Supervised Learning
- Title(参考訳): 不均衡半教師学習のための2クラスバイアス補正
- Authors: Lan Li, Bowen Tao, Lu Han, De-chuan Zhan, Han-jia Ye
- Abstract要約: textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
- 参考スコア(独自算出の注目度): 59.90429949214134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differing from traditional semi-supervised learning, class-imbalanced
semi-supervised learning presents two distinct challenges: (1) The imbalanced
distribution of training samples leads to model bias towards certain classes,
and (2) the distribution of unlabeled samples is unknown and potentially
distinct from that of labeled samples, which further contributes to class bias
in the pseudo-labels during training. To address these dual challenges, we
introduce a novel approach called \textbf{T}wice \textbf{C}lass \textbf{B}ias
\textbf{C}orrection (\textbf{TCBC}). We begin by utilizing an estimate of the
class distribution from the participating training samples to correct the
model, enabling it to learn the posterior probabilities of samples under a
class-balanced prior. This correction serves to alleviate the inherent class
bias of the model. Building upon this foundation, we further estimate the class
bias of the current model parameters during the training process. We apply a
secondary correction to the model's pseudo-labels for unlabeled samples, aiming
to make the assignment of pseudo-labels across different classes of unlabeled
samples as equitable as possible. Through extensive experimentation on
CIFAR10/100-LT, STL10-LT, and the sizable long-tailed dataset SUN397, we
provide conclusive evidence that our proposed TCBC method reliably enhances the
performance of class-imbalanced semi-supervised learning.
- Abstract(参考訳): 従来の半教師付き学習とは違い,(1)訓練サンプルの不均衡分布は,特定のクラスに対するモデルバイアスをもたらし,(2)ラベル付きサンプルの分布は未知であり,ラベル付きサンプルと異なる可能性があり,トレーニング中の擬似ラベルのクラスバイアスにさらに寄与する。
これら2つの課題に対処するため、新しいアプローチとして \textbf{T}wice \textbf{C}lass \textbf{B}ias \textbf{C}orrection (\textbf{TCBC})を導入する。
まず,参加者のトレーニングサンプルからのクラス分布の推定結果を用いてモデル修正を行い,クラスバランスの取れた事前条件下でのサンプルの後方確率を学習する。
この補正は、モデル固有のクラスバイアスを軽減するのに役立つ。
この基礎に基づいて、トレーニングプロセス中に現在のモデルパラメータのクラスバイアスを推定する。
ラベルなしサンプルに対するモデルの擬似ラベルに二次補正を適用し,ラベルなしサンプルの異なるクラスにまたがる擬似ラベルの割り当てを可能な限り等価にすることを目的とした。
CIFAR10/100-LT, STL10-LT, および大容量長尾データセットSUN397の広範な実験を通じて, 提案手法がクラス不均衡半教師付き学習の性能を確実に向上することを示す決定的証拠を提供する。
関連論文リスト
- Towards the Mitigation of Confirmation Bias in Semi-supervised Learning: a Debiased Training Perspective [6.164100243945264]
半教師付き学習(SSL)は、モデルが特定のクラスを不均等に好むという、一般的に確認バイアスを示す。
SSLのデバイアスドトレーニングのための統合フレームワークであるTaMatchを紹介します。
TaMatchは,様々な課題の画像分類タスクにおいて,既存の最先端手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T21:50:30Z) - Debiased Sample Selection for Combating Noisy Labels [24.296451733127956]
サンプル選択におけるバイアス学習のためのnoIse-Tolerant Expert Model (ITEM)を提案する。
具体的には、トレーニングバイアスを軽減するために、複数の専門家と統合した堅牢なネットワークアーキテクチャを設計します。
2つのクラス識別型ミニバッチの混合によるトレーニングにより、モデルが不均衡なトレーニングセットの効果を緩和する。
論文 参考訳(メタデータ) (2024-01-24T10:37:28Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Learning to Adapt Classifier for Imbalanced Semi-supervised Learning [38.434729550279116]
Pseudo-labelingは、有望な半教師付き学習(SSL)パラダイムであることが証明されている。
既存の擬似ラベル法では、トレーニングデータのクラス分布が均衡していると仮定するのが一般的である。
本研究では,不均衡な半教師付きセットアップ下での擬似ラベリングについて検討する。
論文 参考訳(メタデータ) (2022-07-28T02:15:47Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。