論文の概要: SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning
- arxiv url: http://arxiv.org/abs/2301.10921v1
- Date: Thu, 26 Jan 2023 03:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 14:29:09.000683
- Title: SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning
- Title(参考訳): SoftMatch: セミ教師付き学習における量-品質トレードオフへの対処
- Authors: Hao Chen, Ran Tao, Yue Fan, Yidong Wang, Jindong Wang, Bernt Schiele,
Xing Xie, Bhiksha Raj, Marios Savvides
- Abstract要約: 本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
- 参考スコア(独自算出の注目度): 101.86916775218403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The critical challenge of Semi-Supervised Learning (SSL) is how to
effectively leverage the limited labeled data and massive unlabeled data to
improve the model's generalization performance. In this paper, we first revisit
the popular pseudo-labeling methods via a unified sample weighting formulation
and demonstrate the inherent quantity-quality trade-off problem of
pseudo-labeling with thresholding, which may prohibit learning. To this end, we
propose SoftMatch to overcome the trade-off by maintaining both high quantity
and high quality of pseudo-labels during training, effectively exploiting the
unlabeled data. We derive a truncated Gaussian function to weight samples based
on their confidence, which can be viewed as a soft version of the confidence
threshold. We further enhance the utilization of weakly-learned classes by
proposing a uniform alignment approach. In experiments, SoftMatch shows
substantial improvements across a wide variety of benchmarks, including image,
text, and imbalanced classification.
- Abstract(参考訳): Semi-Supervised Learning (SSL) の重要な課題は、制限付きラベル付きデータと大量のラベルなしデータを効果的に活用して、モデルの一般化性能を改善することである。
本稿では,まずサンプル重み付けの統一化による擬似ラベル法を再検討し,学習を禁止しうる閾値付き擬似ラベルの質の高いトレードオフ問題を示す。
そこで本稿では,学習中の擬似ラベルの高量化と高品質化を両立させることで,トレードオフを克服するSoftMatchを提案する。
その信頼度に基づいて, 切断されたガウス関数から試料を重み付けし, 信頼しきい値のソフトバージョンと見なすことができる。
さらに,一様アライメントアプローチを提案することにより,弱学習クラスの利用をさらに高める。
実験では、softmatchは画像、テキスト、不均衡分類など、さまざまなベンチマークで大幅に改善されている。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Self Adaptive Threshold Pseudo-labeling and Unreliable Sample Contrastive Loss for Semi-supervised Image Classification [6.920336485308536]
擬似ラベルに基づく半教師付きアプローチは、画像分類において2つの問題に悩まされる。
我々は,各クラスの閾値を動的に調整し,信頼性の高いサンプル数を増やす自己適応型閾値擬似ラベル戦略を開発した。
しきい値以下でラベル付けされていないデータを効果的に活用するために、信頼できないサンプルコントラスト損失を提案する。
論文 参考訳(メタデータ) (2024-07-04T03:04:56Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - InPL: Pseudo-labeling the Inliers First for Imbalanced Semi-supervised
Learning [34.062061310242385]
不均衡半教師付き学習(SSL)のための疑似ラベルの新しい視点を提案する。
未表示のサンプルが「流通中」か「流通外」かを測定する。
実験により、我々のエネルギーベース擬似ラベル法である textbfInPL が、不均衡なSSLベンチマークにおいて信頼性ベースの手法よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2023-03-13T16:45:41Z) - SLaM: Student-Label Mixing for Distillation with Unlabeled Examples [15.825078347452024]
学生ラベル混合(SLaM)と呼ばれる未ラベル例を用いた知識蒸留の原理的手法を提案する。
SLaMは、いくつかの標準ベンチマークで評価することで、従来のアプローチよりも一貫して改善されている。
ランダムな分類雑音下でハーフスペースを学習する際の最もよく知られたサンプル複雑性を改善するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-08T00:14:44Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。