論文の概要: On Pseudo-Labeling for Class-Mismatch Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2301.06010v1
- Date: Sun, 15 Jan 2023 03:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 17:49:43.139484
- Title: On Pseudo-Labeling for Class-Mismatch Semi-Supervised Learning
- Title(参考訳): クラスミスマッチ半教師付き学習のための擬似ラベルについて
- Authors: Lu Han, Han-Jia Ye, De-Chuan Zhan
- Abstract要約: 本稿では,クラスミスマッチSSLにおけるPseudo-Labeling(PL)を実証的に解析する。
PLは、SSL問題を教師あり学習に変換する、単純で代表的なSSLメソッドである。
RPL(Re- Balanced Pseudo-Labeling)とSEC(Semantic Exploration Clustering)の2つのコンポーネントによるクラスミスマッチSSLにおけるPLの改善を提案する。
- 参考スコア(独自算出の注目度): 50.48888534815361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When there are unlabeled Out-Of-Distribution (OOD) data from other classes,
Semi-Supervised Learning (SSL) methods suffer from severe performance
degradation and even get worse than merely training on labeled data. In this
paper, we empirically analyze Pseudo-Labeling (PL) in class-mismatched SSL. PL
is a simple and representative SSL method that transforms SSL problems into
supervised learning by creating pseudo-labels for unlabeled data according to
the model's prediction. We aim to answer two main questions: (1) How do OOD
data influence PL? (2) What is the proper usage of OOD data with PL? First, we
show that the major problem of PL is imbalanced pseudo-labels on OOD data.
Second, we find that OOD data can help classify In-Distribution (ID) data given
their OOD ground truth labels. Based on the findings, we propose to improve PL
in class-mismatched SSL with two components -- Re-balanced Pseudo-Labeling
(RPL) and Semantic Exploration Clustering (SEC). RPL re-balances pseudo-labels
of high-confidence data, which simultaneously filters out OOD data and
addresses the imbalance problem. SEC uses balanced clustering on low-confidence
data to create pseudo-labels on extra classes, simulating the process of
training with ground truth. Experiments show that our method achieves steady
improvement over supervised baseline and state-of-the-art performance under all
class mismatch ratios on different benchmarks.
- Abstract(参考訳): 他のクラスからラベル付けされていないout-Of-Distribution(OOD)データがある場合、Semi-Supervised Learning(SSL)メソッドはパフォーマンスの悪化に悩まされ、単にラベル付きデータでトレーニングするよりさらに悪化する。
本稿では,クラスミスマッチSSLにおけるPseudo-Labeling(PL)を実証分析する。
plは、モデルの予測に従ってラベルなしデータの擬似ラベルを作成することによって、ssl問題を教師付き学習に変換する、単純かつ代表的なsslメソッドである。
1)OODデータはPLにどのように影響するのか?
2) pl を用いた ood データの適切な使用状況は?
まず,PLの主な問題はOODデータ上での擬似ラベルの不均衡であることを示す。
第二に、OODのデータは、OOD基底真理ラベルからID(In-Distribution)データを分類するのに役立ちます。
そこで本研究では,Re- Balanced Pseudo-Labeling (RPL) とSemantic Exploration Clustering (SEC) の2つのコンポーネントを用いたクラスミスマッチSSLにおけるPLの改善を提案する。
RPLは、高信頼データの擬似ラベルを再バランスさせ、同時にOODデータをフィルタリングし、不均衡問題に対処する。
SECは、低信頼データ上のバランスの取れたクラスタリングを使用して、追加クラス上の擬似ラベルを作成し、地上の真実でトレーニングのプロセスをシミュレートする。
提案手法は,すべてのクラスミスマッチ率の異なるベンチマークにおいて,教師付きベースラインよりも安定した改善を達成できることを示す。
関連論文リスト
- A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - BASIL: Balanced Active Semi-supervised Learning for Class Imbalanced
Datasets [14.739359755029353]
現在の半教師付き学習(SSL)メソッドは、ラベル付きデータセットとラベルなしデータセットの両方で、各クラスで利用可能なデータポイントの数の間のバランスを前提としている。
本研究では,サブモジュール相互情報(SMI)関数をクラスごとに最適化し,アクティブな学習ループにおけるバランスの取れたデータセットを徐々に選択するアルゴリズムであるBASILを提案する。
論文 参考訳(メタデータ) (2022-03-10T21:34:08Z) - On The Consistency Training for Open-Set Semi-Supervised Learning [44.046578996049654]
我々は,OODサンプルが低次元空間と高次元空間のトレーニングに与える影響について検討した。
提案手法はOODサンプルをよりよく利用し,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-01-19T12:38:17Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。