論文の概要: Learning to Adapt Classifier for Imbalanced Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2207.13856v1
- Date: Thu, 28 Jul 2022 02:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:39:07.083457
- Title: Learning to Adapt Classifier for Imbalanced Semi-supervised Learning
- Title(参考訳): 不均衡半教師付き学習のための分類器適応学習
- Authors: Renzhen Wang, Xixi Jia, Quanziang Wang, Deyu Meng
- Abstract要約: Pseudo-labelingは、有望な半教師付き学習(SSL)パラダイムであることが証明されている。
既存の擬似ラベル法では、トレーニングデータのクラス分布が均衡していると仮定するのが一般的である。
本研究では,不均衡な半教師付きセットアップ下での擬似ラベリングについて検討する。
- 参考スコア(独自算出の注目度): 38.434729550279116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pseudo-labeling has proven to be a promising semi-supervised learning (SSL)
paradigm. Existing pseudo-labeling methods commonly assume that the class
distributions of training data are balanced. However, such an assumption is far
from realistic scenarios and existing pseudo-labeling methods suffer from
severe performance degeneration in the context of class-imbalance. In this
work, we investigate pseudo-labeling under imbalanced semi-supervised setups.
The core idea is to automatically assimilate the training bias arising from
class-imbalance, using a bias adaptive classifier that equips the original
linear classifier with a bias attractor. The bias attractor is designed to be a
light-weight residual network for adapting to the training bias. Specifically,
the bias attractor is learned through a bi-level learning framework such that
the bias adaptive classifier is able to fit imbalanced training data, while the
linear classifier can give unbiased label prediction for each class. We conduct
extensive experiments under various imbalanced semi-supervised setups, and the
results demonstrate that our method can be applicable to different
pseudo-labeling models and superior to the prior arts.
- Abstract(参考訳): Pseudo-labelingは有望な半教師付き学習(SSL)パラダイムであることが証明されている。
既存の擬似ラベル法では、トレーニングデータのクラス分布が均衡していると一般的に仮定している。
しかし、このような仮定は現実的なシナリオとは程遠いものであり、既存の擬似ラベル法はクラス不均衡の文脈で深刻な性能低下に苦しむ。
本研究では,不均衡な半教師付きセットアップ下での擬似ラベリングについて検討する。
中心となる考え方は、元の線形分類器に偏りを引き付けるバイアス適応型分類器を用いて、クラス不均衡から生じるトレーニングバイアスを自動的に同化することである。
バイアスアトラクターはトレーニングバイアスに適応するための軽量残留ネットワークとして設計されている。
具体的には、バイアス適応型分類器が不均衡なトレーニングデータに適合し、線形型分類器は各クラスに偏りのないラベル予測を与えるように、二段階の学習フレームワークを通じてバイアスを引き付ける。
各種のアンバランスな半教師付き装置を用いて広範囲な実験を行い,本手法が異なる擬似ラベルモデルに適用可能であり,先行技術より優れていることを示す。
関連論文リスト
- Towards the Mitigation of Confirmation Bias in Semi-supervised Learning: a Debiased Training Perspective [6.164100243945264]
半教師付き学習(SSL)は、モデルが特定のクラスを不均等に好むという、一般的に確認バイアスを示す。
SSLのデバイアスドトレーニングのための統合フレームワークであるTaMatchを紹介します。
TaMatchは,様々な課題の画像分類タスクにおいて,既存の最先端手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T21:50:30Z) - Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Debiased Learning from Naturally Imbalanced Pseudo-Labels for Zero-Shot
and Semi-Supervised Learning [27.770473405635585]
この研究は、疑似ラベルのバイアス問題を研究する。これは、広く起こるが、しばしば先行研究によって見落とされがちな自然現象である。
半教師付き学習モデルであるFixMatchは、ラベルなしデータを計算したとしても、ラベルなし集合上のラベルを予測したとき、重く長い尾の擬似ラベルを観察する。
介入なしに、トレーニングモデルは擬似ラベルからバイアスを継承し、最終的には準最適となる。
論文 参考訳(メタデータ) (2022-01-05T07:40:24Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z) - VaB-AL: Incorporating Class Imbalance and Difficulty with Variational
Bayes for Active Learning [38.33920705605981]
本研究では,クラス不均衡をアクティブラーニングフレームワークに自然に組み込む手法を提案する。
提案手法は,複数の異なるデータセットのタスク分類に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-25T07:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。