論文の概要: Scaling Up Semi-supervised Learning with Unconstrained Unlabelled Data
- arxiv url: http://arxiv.org/abs/2306.01222v2
- Date: Sat, 13 Jan 2024 02:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:30:55.960414
- Title: Scaling Up Semi-supervised Learning with Unconstrained Unlabelled Data
- Title(参考訳): 制約なしデータによる半教師付き学習のスケールアップ
- Authors: Shuvendu Roy, Ali Etemad
- Abstract要約: 制約のないデータから効果的な表現を学習できる半教師付き学習フレームワークUnMixMatchを提案する。
4つの一般的なデータセットに対して広範な実験を行い、4.79%の性能向上を伴う既存の半教師付き手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 27.75143621836449
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose UnMixMatch, a semi-supervised learning framework which can learn
effective representations from unconstrained unlabelled data in order to scale
up performance. Most existing semi-supervised methods rely on the assumption
that labelled and unlabelled samples are drawn from the same distribution,
which limits the potential for improvement through the use of free-living
unlabeled data. Consequently, the generalizability and scalability of
semi-supervised learning are often hindered by this assumption. Our method aims
to overcome these constraints and effectively utilize unconstrained unlabelled
data in semi-supervised learning. UnMixMatch consists of three main components:
a supervised learner with hard augmentations that provides strong
regularization, a contrastive consistency regularizer to learn underlying
representations from the unlabelled data, and a self-supervised loss to enhance
the representations that are learnt from the unlabelled data. We perform
extensive experiments on 4 commonly used datasets and demonstrate superior
performance over existing semi-supervised methods with a performance boost of
4.79%. Extensive ablation and sensitivity studies show the effectiveness and
impact of each of the proposed components of our method.
- Abstract(参考訳): 本研究では,UnMixMatchを提案する。UnMixMatchは,制約のないデータから効率的な表現を学習し,性能を向上する。
既存の半教師付き手法の多くは、ラベル付きサンプルとラベルなしサンプルが同じ分布から引き出されるという仮定に依存しており、自由なラベル付きデータを使用することによる改善の可能性を制限する。
したがって、半教師付き学習の一般化性とスケーラビリティは、この仮定によってしばしば妨げられる。
本手法は,これらの制約を克服し,半教師付き学習において非制約データを有効に活用することを目的としている。
UnMixMatchは、強力な正規化を提供する教師付き学習者、非ラベルデータから基礎となる表現を学習するコントラスト整合正規化者、非ラベルデータから学習される表現を強化する自己教師付き損失の3つの主要コンポーネントから構成される。
4つの一般的なデータセットに対して広範な実験を行い、4.79%の性能向上を伴う既存の半教師付き手法よりも優れた性能を示した。
広汎なアブレーションおよび感度研究は,提案手法のそれぞれの成分の有効性と影響を示す。
関連論文リスト
- CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning [40.5117833362268]
半教師付き学習とコントラスト学習は、ポピュラーなアプリケーションでより良いパフォーマンスを達成するために徐々に組み合わせられてきた。
1つの一般的な方法は、擬似ラベルを未ラベルのサンプルに割り当て、擬似ラベルのサンプルから正と負のサンプルを選択して、対照的な学習を適用することである。
比較学習における少数クラスサンプルの不足を軽減するために,CLAF(Contrastive Learning with Augmented Features)を提案する。
論文 参考訳(メタデータ) (2023-12-15T08:27:52Z) - Exploring the Boundaries of Semi-Supervised Facial Expression
Recognition: Learning from In-Distribution, Out-of-Distribution, and
Unconstrained Data [19.442685015494316]
表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
以上の結果から,FixMatchは非分散データに対して常に優れたパフォーマンスを実現していることを示す一方,ReMixMatchは非分散データ,非制約データ,希少データシナリオにおいて,すべてのメソッドにおいて際立っている。
論文 参考訳(メタデータ) (2023-06-02T01:40:08Z) - Fairness Improves Learning from Noisily Labeled Long-Tailed Data [119.0612617460727]
長い尾とノイズの多いラベル付きデータは、現実世界のアプリケーションに頻繁に現れ、学習に重大な課題を課す。
2つのサブポピュレーション間のパフォーマンスギャップを正規化することから着想を得たFairness Regularizer(FR)を導入する。
導入したフェアネス正則化器は,尾部のサブポピュレーションと全体的な学習性能を向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T03:46:51Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - Contrastive Regularization for Semi-Supervised Learning [46.020125061295886]
そこで本稿では, ラベルのないデータの特徴量により, 整合正則化の効率性と精度を両立させるために, 対照的な正則化を提案する。
また,提案手法は,ラベルなしデータに分布しないサンプルを含むオープンセット半教師付き学習において,頑健な性能を示す。
論文 参考訳(メタデータ) (2022-01-17T07:20:11Z) - Uncertainty-Guided Mutual Consistency Learning for Semi-Supervised
Medical Image Segmentation [9.745971699005857]
医用画像セグメンテーションのための新しい不確実性誘導相互整合学習フレームワークを提案する。
タスクレベルの正規化によるタスク内一貫性学習と、タスク間の整合性学習を統合して、幾何学的な形状情報を活用する。
本手法は,ラベルのないデータを活用し,既存の半教師付きセグメンテーション法より優れた性能を実現する。
論文 参考訳(メタデータ) (2021-12-05T08:19:41Z) - Uncertainty-Aware Deep Co-training for Semi-supervised Medical Image
Segmentation [4.935055133266873]
本研究では,モデルが意図的に領域を学習するための新しい不確実性認識方式を提案する。
具体的には,不確実性マップを得るためにモンテカルロサンプリングを推定法として利用する。
後ろ向きのプロセスでは、ネットワークの収束を加速するために、教師なしの損失と教師なしの損失を共同で処理する。
論文 参考訳(メタデータ) (2021-11-23T03:26:24Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。