論文の概要: FreeMatch: Self-adaptive Thresholding for Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2205.07246v1
- Date: Sun, 15 May 2022 10:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 08:17:29.754698
- Title: FreeMatch: Self-adaptive Thresholding for Semi-supervised Learning
- Title(参考訳): FreeMatch: 半教師付き学習のための自己適応型閾値
- Authors: Yidong Wang, Hao Chen, Qiang Heng, Wenxin Hou, Marios Savvides,
Takahiro Shinozaki, Bhiksha Raj, Zhen Wu, Jindong Wang
- Abstract要約: 本稿では,モデルの学習状況に応じて,信頼度閾値を自己適応的に定義・調整するためのemphFreeMatchを提案する。
FreeMatchは、最新の最先端メソッドであるFlexMatchよりもtextbf5.78%、textbf13.59%、textbf1.28%のエラー率削減を実現している。
- 参考スコア(独自算出の注目度): 46.95063831057502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pseudo labeling and consistency regularization approaches with
confidence-based thresholding have made great progress in semi-supervised
learning (SSL). In this paper, we theoretically and empirically analyze the
relationship between the unlabeled data distribution and the desirable
confidence threshold. Our analysis shows that previous methods might fail to
define favorable threshold since they either require a pre-defined / fixed
threshold or an ad-hoc threshold adjusting scheme that does not reflect the
learning effect well, resulting in inferior performance and slow convergence,
especially for complicated unlabeled data distributions. We hence propose
\emph{FreeMatch} to define and adjust the confidence threshold in a
self-adaptive manner according to the model's learning status. To handle
complicated unlabeled data distributions more effectively, we further propose a
self-adaptive class fairness regularization method that encourages the model to
produce diverse predictions during training. Extensive experimental results
indicate the superiority of FreeMatch especially when the labeled data are
extremely rare. FreeMatch achieves \textbf{5.78}\%, \textbf{13.59}\%, and
\textbf{1.28}\% error rate reduction over the latest state-of-the-art method
FlexMatch on CIFAR-10 with 1 label per class, STL-10 with 4 labels per class,
and ImageNet with 100k labels respectively.
- Abstract(参考訳): 信頼に基づくしきい値を用いた擬似ラベリングと整合正則化アプローチは、半教師あり学習(SSL)において大きな進歩を遂げた。
本稿では,未ラベルデータ分布と望ましい信頼度との関係を理論的,実証的に分析する。
本研究は,学習効果をよく反映しない既定/固定しきい値あるいはアドホックしきい値調整スキームを必要とするため,従来の手法では適切なしきい値の定義に失敗する可能性を示し,特に複雑なラベルのないデータ分布では,性能が低下し収束が遅くなることを示した。
そこで我々は,モデルの学習状況に応じて,信頼度閾値を自己適応的に定義・調整するために,emph{FreeMatch}を提案する。
複雑なラベル付きデータ分散をより効果的に処理するために,モデルがトレーニング中に多様な予測を生成できるようにする自己適応型クラスフェアネス正規化手法を提案する。
実験の結果, ラベル付きデータが極めて稀な場合, FreeMatch の優位性が示唆された。
freematchは、最新のstate-of-the-artメソッドであるflexmatch on cifar-10 with 1 label per class、stl-10 with 4 labels per class、imagenet with 100k labelsに対して、 \textbf{5.78}\%, \textbf{13.59}\%, \textbf{1.28}\% のエラーレート低減を達成する。
関連論文リスト
- Enhancing Zero-Shot Vision Models by Label-Free Prompt Distribution Learning and Bias Correcting [55.361337202198925]
CLIPのようなヴィジュアル言語モデルは、適切なテキスト記述を使用する際に、顕著な一般化能力を示している。
本稿では,ラベル付きデータを必要としないゼロショット性能を向上する,**Frolic**と呼ばれるラベルフリーな分布学習とバイアス補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-25T04:00:45Z) - A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Boosting Semi-Supervised Learning by Exploiting All Unlabeled Data [21.6350640726058]
半教師付き学習(SSL)は、大きなラベル付きデータセットへの依存を緩和する大きな可能性を秘めているため、大きな注目を集めている。
エントロピー平均損失(EML)と適応負学習(ANL)の2つの新しい手法を提案する。
これらのテクニックをFixMatchと統合し、シンプルながら強力なフレームワークであるFullMatchを開発します。
論文 参考訳(メタデータ) (2023-03-20T12:44:11Z) - InPL: Pseudo-labeling the Inliers First for Imbalanced Semi-supervised
Learning [34.062061310242385]
不均衡半教師付き学習(SSL)のための疑似ラベルの新しい視点を提案する。
未表示のサンプルが「流通中」か「流通外」かを測定する。
実験により、我々のエネルギーベース擬似ラベル法である textbfInPL が、不均衡なSSLベンチマークにおいて信頼性ベースの手法よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2023-03-13T16:45:41Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - MutexMatch: Semi-supervised Learning with Mutex-based Consistency
Regularization [36.019086181632005]
ミューテックスをベースとした整合性正規化(Mutex)を提案し,信頼性の低いサンプルを新しい方法で活用する。
MutexMatchは、CIFAR-10、CIFAR-100、SVHN、STL-10、mini-ImageNetなど、複数のベンチマークデータセットで優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-03-27T14:28:16Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。