論文の概要: Class-Imbalanced Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2002.06815v1
- Date: Mon, 17 Feb 2020 07:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 11:50:26.505744
- Title: Class-Imbalanced Semi-Supervised Learning
- Title(参考訳): クラス不均衡型セミスーパーバイザードラーニング
- Authors: Minsung Hyun, Jisoo Jeong and Nojun Kwak
- Abstract要約: Semi-Supervised Learning (SSL)はラベル付けの難しさを克服し、ラベルなしデータを完全に活用することで大きな成功を収めている。
本稿では,クラス不均衡データを用いた半教師あり学習(CISSL)の課題を紹介する。
本手法はCISSL環境における従来の手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 33.94685366079589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-Supervised Learning (SSL) has achieved great success in overcoming the
difficulties of labeling and making full use of unlabeled data. However, SSL
has a limited assumption that the numbers of samples in different classes are
balanced, and many SSL algorithms show lower performance for the datasets with
the imbalanced class distribution. In this paper, we introduce a task of
class-imbalanced semi-supervised learning (CISSL), which refers to
semi-supervised learning with class-imbalanced data. In doing so, we consider
class imbalance in both labeled and unlabeled sets. First, we analyze existing
SSL methods in imbalanced environments and examine how the class imbalance
affects SSL methods. Then we propose Suppressed Consistency Loss (SCL), a
regularization method robust to class imbalance. Our method shows better
performance than the conventional methods in the CISSL environment. In
particular, the more severe the class imbalance and the smaller the size of the
labeled data, the better our method performs.
- Abstract(参考訳): Semi-Supervised Learning (SSL)はラベル付けの難しさを克服し、ラベルなしデータを完全に活用することで大きな成功を収めている。
しかし、SSLには、異なるクラスのサンプル数が均衡しているという仮定が限られており、多くのSSLアルゴリズムは、不均衡なクラス分布を持つデータセットのパフォーマンスが低いことを示している。
本稿では,クラス不均衡データを用いた半教師付き学習のタスクであるクラス不均衡半教師付き学習(cissl)を提案する。
その際、ラベル付き集合とラベル付き集合の両方においてクラス不均衡を考える。
まず、既存のSSLメソッドを不均衡な環境で分析し、クラス不均衡がSSLメソッドに与える影響について検討する。
次に、クラス不均衡に頑健な正規化手法であるSCL(Suppressed Consistency Loss)を提案する。
本手法はCISSL環境における従来の手法よりも優れた性能を示す。
特に、クラス不均衡が厳しくなり、ラベル付きデータのサイズが小さくなればなるほど、我々の手法はより良く機能する。
関連論文リスト
- On Pseudo-Labeling for Class-Mismatch Semi-Supervised Learning [50.48888534815361]
本稿では,クラスミスマッチSSLにおけるPseudo-Labeling(PL)を実証的に解析する。
PLは、SSL問題を教師あり学習に変換する、単純で代表的なSSLメソッドである。
RPL(Re- Balanced Pseudo-Labeling)とSEC(Semantic Exploration Clustering)の2つのコンポーネントによるクラスミスマッチSSLにおけるPLの改善を提案する。
論文 参考訳(メタデータ) (2023-01-15T03:21:59Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - BASIL: Balanced Active Semi-supervised Learning for Class Imbalanced
Datasets [14.739359755029353]
現在の半教師付き学習(SSL)メソッドは、ラベル付きデータセットとラベルなしデータセットの両方で、各クラスで利用可能なデータポイントの数の間のバランスを前提としている。
本研究では,サブモジュール相互情報(SMI)関数をクラスごとに最適化し,アクティブな学習ループにおけるバランスの取れたデータセットを徐々に選択するアルゴリズムであるBASILを提案する。
論文 参考訳(メタデータ) (2022-03-10T21:34:08Z) - CoSSL: Co-Learning of Representation and Classifier for Imbalanced
Semi-Supervised Learning [98.89092930354273]
本稿では,非バランスなSSLのための非結合表現学習と分類器学習を用いた新しいコラーニングフレームワーク(CoSSL)を提案する。
データ不均衡に対処するため、分類器学習のためのTFE(Tail-class Feature Enhancement)を考案した。
実験により,本手法は様々な分散分布において,他の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-12-08T20:13:13Z) - ABC: Auxiliary Balanced Classifier for Class-imbalanced Semi-supervised
Learning [6.866717993664787]
既存の半教師付き学習(SSL)アルゴリズムは、クラスバランスのデータセットを仮定する。
ラベルのないデータを効果的に活用できるスケーラブルなクラス不均衡SSLアルゴリズムを提案する。
提案アルゴリズムは,4つのベンチマークデータセットを用いて,様々なクラス不均衡SSL実験における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-20T04:07:48Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。