論文の概要: ABC: Auxiliary Balanced Classifier for Class-imbalanced Semi-supervised
Learning
- arxiv url: http://arxiv.org/abs/2110.10368v1
- Date: Wed, 20 Oct 2021 04:07:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:36:06.848933
- Title: ABC: Auxiliary Balanced Classifier for Class-imbalanced Semi-supervised
Learning
- Title(参考訳): ABC: クラス不均衡半教師あり学習のための補助均衡分類器
- Authors: Hyuck Lee, Seungjae Shin, Heeyoung Kim
- Abstract要約: 既存の半教師付き学習(SSL)アルゴリズムは、クラスバランスのデータセットを仮定する。
ラベルのないデータを効果的に活用できるスケーラブルなクラス不均衡SSLアルゴリズムを提案する。
提案アルゴリズムは,4つのベンチマークデータセットを用いて,様々なクラス不均衡SSL実験における最先端性能を実現する。
- 参考スコア(独自算出の注目度): 6.866717993664787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing semi-supervised learning (SSL) algorithms typically assume
class-balanced datasets, although the class distributions of many real-world
datasets are imbalanced. In general, classifiers trained on a class-imbalanced
dataset are biased toward the majority classes. This issue becomes more
problematic for SSL algorithms because they utilize the biased prediction of
unlabeled data for training. However, traditional class-imbalanced learning
techniques, which are designed for labeled data, cannot be readily combined
with SSL algorithms. We propose a scalable class-imbalanced SSL algorithm that
can effectively use unlabeled data, while mitigating class imbalance by
introducing an auxiliary balanced classifier (ABC) of a single layer, which is
attached to a representation layer of an existing SSL algorithm. The ABC is
trained with a class-balanced loss of a minibatch, while using high-quality
representations learned from all data points in the minibatch using the
backbone SSL algorithm to avoid overfitting and information loss.Moreover, we
use consistency regularization, a recent SSL technique for utilizing unlabeled
data in a modified way, to train the ABC to be balanced among the classes by
selecting unlabeled data with the same probability for each class. The proposed
algorithm achieves state-of-the-art performance in various class-imbalanced SSL
experiments using four benchmark datasets.
- Abstract(参考訳): 既存の半教師付き学習(SSL)アルゴリズムは通常、多くの実世界のデータセットのクラス分布は不均衡であるが、クラスバランスのデータセットを仮定する。
一般に、クラス不均衡データセットでトレーニングされた分類器は、多数派クラスに偏っている。
SSLアルゴリズムでは、ラベルなしデータのバイアス付き予測をトレーニングに使用するため、この問題がより問題になる。
しかし、ラベル付きデータ用に設計された従来のクラス不均衡学習技術は、簡単にSSLアルゴリズムと組み合わせることはできない。
本稿では,既存のSSLアルゴリズムの表現層に付加された単一層の補助的均衡型分類器(ABC)を導入することにより,クラス不均衡を緩和しつつ,ラベル付きデータを効果的に活用できるスケーラブルなクラス不均衡SSLアルゴリズムを提案する。
abcは,オーバーフィッティングや情報損失を回避するために,backbone sslアルゴリズムを用いて,ミニバッチ内のすべてのデータポイントから学習した高品質な表現を用いて,クラス間のバランスを保ちながら,ミニバッチのクラスバランス損失を訓練する。さらに,ラベルなしデータを利用するための最近のssl技法であるconsistency regularizationを用いて,abcをクラス毎に同じ確率で選択することで,クラス間のバランスをとるように訓練する。
提案アルゴリズムは,4つのベンチマークデータセットを用いて,様々なクラス不均衡SSL実験における最先端性能を実現する。
関連論文リスト
- Semi-Supervised Sparse Gaussian Classification: Provable Benefits of Unlabeled Data [6.812609988733991]
高次元ガウス分類のためのSSLについて検討する。
正確な特徴選択のための情報理論の下限を解析する。
理論的解析を補完するシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-09-05T08:21:05Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Boosting Consistency in Dual Training for Long-Tailed Semi-Supervised Learning [49.07038093130949]
Long-tailed semi-supervised learning (LTSSL)アルゴリズムは、ラベル付きデータとラベルなしデータのクラス分布がほぼ同一であると仮定する。
未知のクラス分布からラベル付けされていないデータを効果的に活用できる新しい簡易手法を提案する。
BOATは様々な標準LTSSLベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-06-19T03:35:26Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - BASIL: Balanced Active Semi-supervised Learning for Class Imbalanced
Datasets [14.739359755029353]
現在の半教師付き学習(SSL)メソッドは、ラベル付きデータセットとラベルなしデータセットの両方で、各クラスで利用可能なデータポイントの数の間のバランスを前提としている。
本研究では,サブモジュール相互情報(SMI)関数をクラスごとに最適化し,アクティブな学習ループにおけるバランスの取れたデータセットを徐々に選択するアルゴリズムであるBASILを提案する。
論文 参考訳(メタデータ) (2022-03-10T21:34:08Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Rethinking Re-Sampling in Imbalanced Semi-Supervised Learning [26.069534478556527]
Semi-Supervised Learning (SSL)はラベル付きデータが不足している場合にラベル付きデータを利用する強力な能力を示している。
ほとんどのSSLアルゴリズムは、クラスディストリビューションがトレーニングセットとテストセットの両方でバランスが取れているという仮定の下で動作します。
本研究では,クラス不均衡データに対するSSLの問題について考察する。
論文 参考訳(メタデータ) (2021-06-01T03:58:18Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z) - Class-Imbalanced Semi-Supervised Learning [33.94685366079589]
Semi-Supervised Learning (SSL)はラベル付けの難しさを克服し、ラベルなしデータを完全に活用することで大きな成功を収めている。
本稿では,クラス不均衡データを用いた半教師あり学習(CISSL)の課題を紹介する。
本手法はCISSL環境における従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-02-17T07:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。